首页
Search
1
v2ray异常错误之二
3,310 阅读
2
linux时区设置
2,698 阅读
3
DB2常用操作
2,173 阅读
4
websphere修改jvm内存xmx和xms
1,929 阅读
5
nfs客户端文件属主为nobody的现象
1,552 阅读
技术
生活
运动
游戏
电影
登录
Search
标签搜索
docker
linux
troubleshooting
nginx
secure
truenas
mysql
windows
python
esxi
docker swarm
oracle
zabbix
tomcat
blog
dsm
群晖
rpa
freenas
db
yuc
累计撰写
291
篇文章
累计收到
0
条评论
首页
栏目
技术
生活
运动
游戏
电影
页面
搜索到
13
篇与
的结果
2023-07-31
truenas更换损坏、故障的存储池硬盘
0x1 参考文档: https://www.truenas.com/docs/core/coretutorials/storage/disks/diskreplace/ 磁盘、存储池故障的日志参考: 现象1 New alerts: * Device /dev/gptid/e1fd123b-8795-11ed-bee4-b083fedec519 is causing slow I/O on pool dev1. 现象2 New alerts: * Pool dev1 state is ONLINE: One or more devices has experienced an unrecoverable error. An attempt was made to correct the error. Applications are unaffected. 现象3 New alert: * Pool dev1 state is DEGRADED: One or more devices are faulted in response to persistent errors. Sufficient replicas exist for the pool to continue functioning in a degraded state. The following devices are not healthy: * Disk IBM-XIV HUS723020ALS64A4 YFHEUB3G is FAULTED * Device: /dev/da6, failed to read SMART values. * Device: /dev/da6, Read SMART Self-Test Log Failed. 在现象1中提示io缓慢的时候如何定位是哪个磁盘呢?先可以通过命令查看每个盘的情况 root@freenas[/dev/gptid]# zpool status pool: boot-pool state: ONLINE scan: scrub repaired 0B in 00:24:37 with 0 errors on Sat Jul 29 04:09:37 2023 config: NAME STATE READ WRITE CKSUM boot-pool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 da13p2 ONLINE 0 0 0 da12p2 ONLINE 0 0 0 errors: No known data errors pool: dev1 state: DEGRADED status: One or more devices are faulted in response to persistent errors. Sufficient replicas exist for the pool to continue functioning in a degraded state. action: Replace the faulted device, or use 'zpool clear' to mark the device repaired. scan: scrub repaired 0B in 11:48:41 with 0 errors on Sun Jul 30 11:48:42 2023 config: NAME STATE READ WRITE CKSUM dev1 DEGRADED 0 0 0 raidz3-0 DEGRADED 0 0 0 gptid/15954610-bc06-11ed-a407-b083fedec519 ONLINE 0 0 0 gptid/e1b6b74b-8795-11ed-bee4-b083fedec519 ONLINE 0 0 0 gptid/e1fd123b-8795-11ed-bee4-b083fedec519 FAULTED 12 11 0 too many errors gptid/bb486a3d-c7d5-11ed-a407-b083fedec519 ONLINE 0 0 0 gptid/e249a2c9-8795-11ed-bee4-b083fedec519 ONLINE 0 0 0 gptid/034b850b-bc17-11ed-a407-b083fedec519 ONLINE 0 0 0 gptid/e1e4d7ce-8795-11ed-bee4-b083fedec519 ONLINE 0 0 0 gptid/e23f6124-8795-11ed-bee4-b083fedec519 ONLINE 0 0 0 gptid/e2971a19-8795-11ed-bee4-b083fedec519 ONLINE 0 0 0 gptid/e25d107c-8795-11ed-bee4-b083fedec519 ONLINE 0 0 0 errors: No known data errors 可以使用如下命令查看 gptid 对应的分区: label status | tail -n +2 | sort -k53 接着会看到有的盘会有多个分区,那么每个分区分别是什么呢,可以使用如下命令查询: gpart show
2023年07月31日
7 阅读
0 评论
0 点赞
2023-07-17
truenas之更换或者添加启动盘的问题
0x1 背景: 这个问题的背景比较深,需要多讲点。首先就是从freenas升级到truenas之后提示推荐使用磁盘作为启动设备了,众所周知以前freenas是推荐使用小容量的U盘的。所以我们根据最新推荐空出两块SSD,然后设置这两块SSD作为启动设备了。 在后来的一次故障处理后重启truenas,发现系统无法引导了,没有显示启动项。在经过排查后发现把硬盘放入硬盘盒后再接入USB口是可以识别并启动成功。这是为什么呢? 查阅资料后发现可能性和解决办法如下: https://www.youtube.com/watch?v=dJyQVLPjWbo 大概率就是因为使用的直通模式,那么想要期中一块盘作为启动盘,那么需要在某个配置中指定下。所以尝试开机进入 ctrl + c,根据视频操作,进入后分别用 alt + b 和 alt + a 设置了两块SSD为启动盘,可是结果仍未启动成功 再次分析,可能之前是直接安装到U盘中,使用USB启动,那么这些数据可能不兼容硬盘启动,猜测可能要解决这个问题,需要在插入硬盘的状态下,直接重装系统到硬盘后,再次进入配置设置这些硬盘为启动设备。 此次问题: 因为时间的问题,以上的猜测并没有测试,而是选择继续使用U盘启动,而这些硬盘也打算在替换U盘后拿掉。所以我们还是在硬盘放入硬盘盒后启动系统成功。接着插入U盘,选择添加U盘作为启动设备,然而报错,设备空间太小。 0x2 在经过查阅资料后发现其他网友也是遇到过这个问题的,大概的解释为,truenas添加的启动盘,大小要等于或者大于第一块盘,否则就算你空间是足够的,那也会报错。 https://www.truenas.com/community/threads/device-is-too-small-when-mirroring-boot-device-flash.26722/ 所以解决办法那只有一个了,顺序如下: 保存truenas的配置文件 拿掉所有的启动盘 重新安装系统到最小的U盘 恢复配置文件 最后启动盘就变成了最小的这个U盘了,如果要继续增加启动设备做冗余的话,那么新家的这个U盘大小最好是跟当前这个U盘大小一致,
2023年07月17日
8 阅读
0 评论
0 点赞
2023-07-17
truenas/freenas 之ssh免密登录问题
0x1 之前为了使用rsync同步其他机器的文件,做了ssh免密登录到其他机器,但上次机器启动盘出现问题,使用U盘重做,然后恢复系统后rsync就一直失败。 查看任务失败原因,发现是登录到异机失败,再看 /root/.ssh/ 目录下,发现私钥和公钥都已经没有了,可以合理推测是重做系统并且恢复配置文件是会丢失这部分文件的 0x2 根据上面这个问题,可以得出一个truenas使用的原则是,最好所有的东西都在 web 上配置,否则很多东西如果存在系统盘,那么意外损坏后,配置容易丢失。 这次针对rsync同步的问题,可能解决的办法如下: 再次在命令行生成 私钥和公钥,然后公钥发送到异机即可 rsync任务使用模块的方式,这样的话需要在rsync配置文件中写入对方密码,不过既然这样是truenas支持的方式,那么配置应该会在保存配置文件的时候保留下来
2023年07月17日
2 阅读
0 评论
0 点赞
1
2
3