-
Notifications
You must be signed in to change notification settings - Fork 72
errno5
描述: 拓扑文件中的 s3.ak
配置项是无效的
如何解决: 若用户想要部署快照克隆服务,需确保拓扑文件中的 s3.ak
、s3.sk
、s3.nos_address
、s3.snapshot_bucket_name
这 4 个 S3 相关配置有效且正确。若用户不需要使用快照克隆服务,在部署的时候可通过添加 --skip snapshotclone
选项跳过部署快照克隆服务
拓扑文件示例:
kind: curvebs
global:
s3.ak: 0123456789abcdefghijklmnopqrstuv
s3.sk: abcdefghijklmnopqrstuv0123456789
s3.nos_address: nos-eastchina1.126.net
s3.snapshot_bucket_name: curve
...
描述: 拓扑文件中的 s3.sk
配置项是无效的
如何解决: 若用户想要部署快照克隆服务,需确保拓扑文件中的 s3.ak
、s3.sk
、s3.nos_address
、s3.snapshot_bucket_name
这 4 个 S3 相关配置有效且正确。若用户不需要使用快照克隆服务,在部署的时候可通过添加 --skip snapshotclone
选项跳过部署快照克隆服务
拓扑文件示例:
kind: curvebs
global:
s3.ak: 0123456789abcdefghijklmnopqrstuv
s3.sk: abcdefghijklmnopqrstuv0123456789
s3.nos_address: nos-eastchina1.126.net
s3.snapshot_bucket_name: curve
...
描述: 拓扑文件中的 s3.nos_addresss
配置项是无效的
如何解决: 若用户想要部署快照克隆服务,需确保拓扑文件中的 s3.ak
、s3.sk
、s3.nos_address
、s3.snapshot_bucket_name
这 4 个 S3 相关配置有效且正确。若用户不需要使用快照克隆服务,在部署的时候可通过添加 --skip snapshotclone
选项跳过部署快照克隆服务
拓扑文件示例:
kind: curvebs
global:
s3.ak: 0123456789abcdefghijklmnopqrstuv
s3.sk: abcdefghijklmnopqrstuv0123456789
s3.nos_address: nos-eastchina1.126.net
s3.snapshot_bucket_name: curve
...
描述: 拓扑文件中的 s3.snapshot_bucket_name
配置项是无效的
如何解决: 若用户想要部署快照克隆服务,需确保拓扑文件中的 s3.ak
、s3.sk
、s3.nos_address
、s3.snapshot_bucket_name
这 4 个 S3 相关配置有效且正确。若用户不需要使用快照克隆服务,在部署的时候可通过添加 --skip snapshotclone
选项跳过部署快照克隆服务
拓扑文件示例:
kind: curvebs
global:
s3.ak: 0123456789abcdefghijklmnopqrstuv
s3.sk: abcdefghijklmnopqrstuv0123456789
s3.nos_address: nos-eastchina1.126.net
s3.snapshot_bucket_name: curve
...
描述: 拓扑文件中日志目录和数据目录必须为绝对路径
如何解决: 用户需确保拓扑文件中 log_dir
、data_dir
这 2 个目录配置项的值为绝对路径。用户可根据错误线索锁定哪一个配置项不符合要求,并对其进行修改,详见CurveBS 重要配置项、CurveFS 重要配置项
示例:
kind: curvefs
global:
log_dir: /curvefs/logs/${service_role} # 正确
data_dir: ~/data/${service_role} # 错误
...
描述: 拓扑文件中存在重复的数据目录
如何解决: 用户需确保拓扑文件中 data_dir
配置项不能使用主机上相同的目录。用户可根据错误线索锁定哪一个配置项不符合要求,并对其进行修改,用户也可以参考集群的拓扑模版对其进行修改
示例:
kind: curvebs
global:
variable:
machine1: server-host1
machine2: server-host2
machine3: server-host3
etcd_services:
config:
listen.ip: ${service_host}
listen.port: 2380
listen.client_port: 2379
data_dir: /tmp/${service_role}
deploy:
- host: ${machine1} # 正确,该服务的数据目录为 server-host1 上的 /tmp/etcd
- host: ${machine2} # 正确,该服务的数据目录为 server-host2 上的 /tmp/etcd
- host: ${machine3} # 正确,该服务的数据目录为 server-host3 上的 /tmp/etcd
chunkserver_services:
config:
listen.ip: ${service_host}
listen.port: 82${format_replica_sequence} # 8200, 8201, 8202
data_dir: /data/chunkserver
copysets: 100
deploy:
- host: ${machine1} # 错误,该主机上的 3 个服务数据目录都为 server-host1 上的 /data/chunkserver
replica: 3
- host: ${machine2} # 错误,该主机上的 3 个服务数据目录都为 server-host2 上的 /data/chunkserver
replica: 3
- host: ${machine3} # 错误,该主机上的 3 个服务数据目录都为 server-host3 上的 /data/chunkserver
replica: 3
描述: 拓扑文件中存在重复的监听地址
如何解决: 用户需确保拓扑文件中不存在重复的监听地址,一个监听地址是由服务监听 IP(listen.ip
)和监听端口(listen.*_port
)组合而成的。用户可根据错误线索锁定哪一个配置项不符合要求,并对其进行修改,用户也可以参考集群的拓扑模版对其进行修改
示例:
kind: curvebs
global:
variable:
machine1: server-host1
machine2: server-host2
machine3: server-host3
etcd_services:
config:
listen.ip: ${service_host}
listen.port: 2380
listen.client_port: 2379
deploy:
- host: ${machine1} # 正确,该服务监听地址为 server-host1:{2379,2380}
- host: ${machine2} # 正确,该服务监听地址为 server-host2:{2379,2380}
- host: ${machine3} # 正确,该服务监听地址为 server-host3:{2379,2380}
...
chunkserver_services:
config:
listen.ip: ${service_host}
listen.port: 8200
...
deploy:
- host: ${machine1} # 错误,该主机上的 3 个服务的监听地址都为 server-host1:8200,存在冲突
replica: 3
...
...
描述: 拓扑文件中 etcd 服务至少需要 3 个服务实例
如何解决: 用户需修改集群拓扑文件,确保拓扑文件中 etcd 的服务实例为 3 个以上,用户可参考集群的拓扑模版对其进行修改
正确示例:
该拓扑文件中存在 3 个 etcd 服务实例
kind: curvebs
global:
variable:
machine1: server-host1
machine2: server-host2
machine3: server-host3
etcd_services:
config:
listen.ip: ${service_host}
listen.port: 2380
listen.client_port: 2379
deploy:
- host: ${machine1}
- host: ${machine2}
- host: ${machine3}
...
错误示例:
该拓扑文件中只存在 2 个 etcd 服务实例
kind: curvebs
global:
variable:
machine1: server-host1
machine2: server-host2
machine3: server-host3
etcd_services:
config:
listen.ip: ${service_host}
listen.port: 2380
listen.client_port: 2379
deploy:
- host: ${machine1}
- host: ${machine2}
...
描述: 拓扑文件中 mds 服务至少需要 3 个服务实例
如何解决: 用户需修改集群拓扑文件,确保拓扑文件中 mds 的服务实例为 3 个以上,用户可参考集群的拓扑模版对其进行修改
正确示例:
该拓扑文件中存在 3 个 mds 服务
kind: curvebs
global:
variable:
machine1: server-host1
machine2: server-host2
machine3: server-host3
mds_services:
config:
listen.ip: ${service_host}
listen.port: 6700
listen.dummy_port: 7700
deploy:
- host: ${machine1}
- host: ${machine2}
- host: ${machine3}
...
错误示例:
该拓扑文件中只存在 2 个 mds 服务
kind: curvebs
global:
variable:
machine1: server-host1
machine2: server-host2
machine3: server-host3
mds_services:
config:
listen.ip: ${service_host}
listen.port: 6700
listen.dummy_port: 7700
deploy:
- host: ${machine1}
- host: ${machine2}
...
描述: 拓扑文件中 chunkserver 服务至少需要 3 个服务实例
如何解决: 用户需修改集群拓扑文件,确保拓扑文件中 chunkserver 的服务实例为 3 个以上,用户可参考集群的拓扑模版对其进行修改
正确示例:
该拓扑文件中存在 9 个 chunkserver 服务实例
kind: curvebs
global:
variable:
machine1: server-host1
machine2: server-host2
machine3: server-host3
chunkserver_services:
config:
listen.ip: ${service_host}
listen.port: 82${format_replica_sequence} # 8200, 8201, 8202
data_dir: /data/chunkserver${service_replicas_sequence} # /data/chunkserver0, /data/chunksever1, /data/chunkserver2
copysets: 100
deploy:
- host: ${machine1}
replica: 3
- host: ${machine2}
replica: 3
- host: ${machine3}
replica: 3
...
错误示例:
该拓扑文件中只存在 2 个 chunkserver 服务实例
kind: curvebs
global:
variable:
machine1: server-host1
machine2: server-host2
machine3: server-host3
chunkserver_services:
config:
listen.ip: ${service_host}
listen.port: 82${format_replica_sequence} # 8200, 8201, 8202
data_dir: /data/chunkserver${service_replicas_sequence} # /data/chunkserver0, /data/chunksever1, /data/chunkserver2
copysets: 100
deploy:
- host: ${machine1}
replica: 2
...
描述: 拓扑文件中 snapshotclone 服务至少需要 3 个服务实例
如何解决: 用户需修改集群拓扑文件,确保拓扑文件中 snapshotclone 的服务实例为 3 个以上,用户可参考集群的拓扑模版对其进行修改。如果暂时不需要部署 snapshotclone 服务,在执行部署时候可通过 skip
选项跳过部署该服务
$ curveadm deploy --skip snapshotclone
正确示例:
该拓扑文件中存在 3 个 snapshoclone 服务实例
kind: curvebs
global:
variable:
machine1: server-host1
machine2: server-host2
machine3: server-host3
snapshotclone_services:
config:
listen.ip: ${service_host}
listen.port: 5555
listen.dummy_port: 8081
listen.proxy_port: 8080
deploy:
- host: ${machine1}
- host: ${machine2}
- host: ${machine3}
...
错误示例:
该拓扑文件中只存在 2 个 snapshotclone 服务实例
kind: curvebs
global:
variable:
machine1: server-host1
machine2: server-host2
machine3: server-host3
snapshotclone_services:
config:
listen.ip: ${service_host}
listen.port: 5555
listen.dummy_port: 8081
listen.proxy_port: 8080
deploy:
- host: ${machine1}
- host: ${machine2}
...
描述: 拓扑文件中 metaserver 服务至少需要 3 个服务实例
如何解决: 用户需修改集群拓扑文件,确保拓扑文件中 metaserver 的服务实例为 3 个以上,用户可参考集群的拓扑模版对其进行修改
正确示例:
该拓扑文件中存在 3 个 metaserver 服务实例
kind: curvefs
global:
variable:
machine1: server-host1
machine2: server-host2
machine3: server-host3
metaserver_services:
config:
listen.ip: ${service_host}
listen.port: 6800
listen.external_port: 7800
metaserver.loglevel: 0
deploy:
- host: ${machine1}
- host: ${machine2}
- host: ${machine3}
...
错误示例:
该拓扑文件中只存在 2 个 metaserver 服务实例
kind: curvefs
global:
variable:
machine1: server-host1
machine2: server-host2
machine3: server-host3
metaserver_services:
config:
listen.ip: ${service_host}
listen.port: 6800
listen.external_port: 7800
metaserver.loglevel: 0
deploy:
- host: ${machine1}
- host: ${machine2}
...
描述: 拓扑文件中 etcd 服务至少需要 3 台主机
如何解决: 为保证服务的高可用,以及隔离故障域,拓扑文件至少需要 3 台主机用于部署 etcd 服务,特别需要注意的是,用户只需要在 deploy
列表中增加 3 台主机即可,即使它们实际指向的是同一台物理主机
正确示例:
该拓扑文件中存在 3 个 etcd 服务实例,并且拥有 server-host{1,2,3} 3 台主机
kind: curvebs
global:
variable:
machine1: server-host1
machine2: server-host2
machine3: server-host3
etcd_services:
config:
listen.ip: ${service_host}
listen.port: 2380
listen.client_port: 2379
deploy:
- host: ${machine1}
- host: ${machine2}
- host: ${machine3}
...
错误示例:
该拓扑文件中拥有 3 个 etcd 服务实例,但是其都位于 server-host1 这 1 台主机上
kind: curvebs
global:
variable:
machine1: server-host1
etcd_services:
config:
listen.ip: ${service_host}
listen.port: 2380
listen.client_port: 2379
deploy:
- host: ${machine1}
replicas:
...
描述: 拓扑文件中 mds 服务至少需要 3 台主机
如何解决: 为保证服务的高可用,以及隔离故障域,拓扑文件至少需要 3 台主机用于部署 mds 服务,特别需要注意的是,用户只需要在 deploy
列表中增加 3 台主机即可,即使它们实际指向的是同一台物理主机
正确示例:
该拓扑文件中存在 3 个 mds 服务实例,并且拥有 server-host{1,2,3} 3 台主机
kind: curvebs
global:
variable:
machine1: server-host1
machine2: server-host2
machine3: server-host3
mds_services:
config:
listen.ip: ${service_host}
listen.port: 6700
listen.dummy_port: 7700
deploy:
- host: ${machine1}
- host: ${machine2}
- host: ${machine3}
...
错误示例:
该拓扑文件中拥有 3 个 mds 服务实例,但是其都位于 server-host1 这 1 台主机上
kind: curvebs
global:
variable:
machine1: server-host1
mds_services:
config:
listen.ip: ${service_host}
listen.port: 6700
listen.dummy_port: 7700
deploy:
- host: ${machine1}
replicas: 3
...
描述: 拓扑文件中 chunkserver 服务至少需要 3 台主机
如何解决: 为保证服务的高可用,以及隔离故障域,拓扑文件至少需要 3 台主机用于部署 chunkserver 服务,特别需要注意的是,用户只需要在 deploy
列表中增加 3 台主机即可,即使它们实际指向的是同一台物理主机
正确示例:
该拓扑文件中存在 3 个 chunkserver 服务实例,并且拥有 server-host{1,2,3} 3 台主机
kind: curvebs
global:
variable:
machine1: server-host1
machine2: server-host2
machine3: server-host3
chunkserver_services:
config:
listen.ip: ${service_host}
listen.port: 82${format_replica_sequence} # 8200, 8201, 8202
data_dir: /data/chunkserver${service_replica_sequence} # /data/chunkserver0, /data/chunksever1, /data/chunkserver2
copysets: 100
deploy:
- host: ${machine1}
- host: ${machine2}
- host: ${machine3}
...
错误示例:
该拓扑文件中拥有 3 个 chunkserver 服务实例,但是其都位于 server-host1 这 1 台主机上
kind: curvebs
global:
variable:
machine1: server-host1
machine2: server-host2
machine3: server-host3
chunkserver_services:
config:
listen.ip: ${service_host}
listen.port: 82${format_replica_sequence} # 8200, 8201, 8202
data_dir: /data/chunkserver${service_replica_sequence} # /data/chunkserver0, /data/chunksever1, /data/chunkserver2
copysets: 100
deploy:
- host: ${machine1}
replicas: 3
...
描述: 拓扑文件中 snapshotclone 服务至少需要 3 台主机
如何解决: 为保证服务的高可用,以及隔离故障域,拓扑文件至少需要 3 台主机用于部署 snapshotclone 服务,特别需要注意的是,用户只需要在 deploy
列表中增加 3 台主机即可,即使它们实际指向的是同一台物理主机。若用户不需要部署快照克隆部署,可将整个 snapshotclone_services
区块删除即可
正确示例:
该拓扑文件中存在 3 个 snapshoeclone 服务实例,并且拥有 server-host{1,2,3} 3 台主机
kind: curvebs
global:
variable:
machine1: server-host1
machine2: server-host2
machine3: server-host3
snapshotclone_services:
config:
listen.ip: ${service_host}
listen.port: 5555
listen.dummy_port: 8081
listen.proxy_port: 8080
deploy:
- host: ${machine1}
- host: ${machine2}
- host: ${machine3}
...
错误示例:
该拓扑文件中拥有 3 个 snapshotclone 服务实例,但是其都位于 server-host1 这 1 台主机上
kind: curvebs
global:
variable:
machine1: server-host1
machine2: server-host2
machine3: server-host3
snapshotclone_services:
config:
listen.ip: ${service_host}
listen.port: 5555
listen.dummy_port: 8081
listen.proxy_port: 8080
deploy:
- host: ${machine1}
replicas: 3
...
描述: 拓扑文件中 metaserver 服务至少需要 3 台主机
如何解决: 为保证服务的高可用,以及隔离故障域,拓扑文件至少需要 3 台主机用于部署 metaserver 服务,特别需要注意的是,用户只需要在 deploy
列表中增加 3 台主机即可,即使它们实际指向的是同一台物理主机。
正确示例:
该拓扑文件中存在 3 个 metaserver 服务实例,并且拥有 server-host{1,2,3} 3 台主机
kind: curvefs
global:
variable:
machine1: server-host1
machine2: server-host2
machine3: server-host3
metaserver_services:
config:
listen.ip: ${service_host}
listen.port: 6800
listen.external_port: 7800
metaserver.loglevel: 0
deploy:
- host: ${machine1}
- host: ${machine2}
- host: ${machine3}
...
错误示例:
该拓扑文件中拥有 3 个 metaserver 服务实例,但是其都位于 server-host1 这 1 台主机上
kind: curvebs
global:
variable:
machine1: server-host1
machine2: server-host2
machine3: server-host3
metaserver_services:
config:
listen.ip: ${service_host}
listen.port: 6800
listen.external_port: 7800
metaserver.loglevel: 0
deploy:
- host: ${machine1}
replicas: 3
...
描述: 认证功能已经打开,但是auth.server.key
没有设置
如何解决: 当认证功能打开的时候,需要在mds.service下设置auth.server.key
,并且auth.server.key
长度需为16位的字符串
描述: 认证功能已经打开,但是auth.key.current
没有设置
如何解决: 当认证功能打开的时候,需要在所有的service下设置auth.key.current
,并且auth.key.current
长度需为16位的字符串
描述: 认证功能已经打开,但是auth.server.key
的长度不等于16位
如何解决: 当认证功能打开的时候,需要在mds.service下设置auth.server.key
,并且auth.server.key
长度需为16位的字符串
描述: 认证功能已经打开,但是auth.key.current
的长度不等于16位
如何解决: 当认证功能打开的时候,需要在所有的service下设置auth.key.current
,并且auth.key.current
长度需为16位的字符串
描述: SSH 连接失败
如何解决: 当出现 SSH 连接问题时,你可以根据主机的相应配置, 在本地手动模拟 curveadm 的连接操作,以此来排查相应问题,详见主机管理
$ ssh <user>@<hostname> -p <ssh_port> -i <private_key_file>
描述: 当前的执行用户不存在
如何解决: 请确保主机列表中的执行用户存在于相应的主机,详见主机管理
描述: 主机上的 hostname 无法被解析
如何解决: CurveAdm 以以下命令探测当前物理主机的 hostname 能否被解析,若主机名能被解析,增该 ping
执行成功
$ ping $(hostname)
若当前机器的主机名无法被解析,用户可手动在 /etc/hosts
文件添加一条记录
$ vim /etc/hosts
127.0.0.1 curve.163.org # 我们假设当前机器的 hostname 为 curve.163.org
描述: 创建目录没有权限
如何解决: CurveAdm 会尝试在部署服务的主机上以执行用户去创建 log_dir
、data_dir
,关于执行用户详见主机管理。当出现这类情况下,用户需要根据错误线索和查看对应的错误日志锁定具体拥有权限的日志目录,并手动更改其权限
描述: 没有权限执行 docker 命令
如何解决: CurveAdm 会尝试在部署服务的主机上以执行用户去运行 sudo docker info
, 关于执行用户详见主机管理。 当出现这类情况下,用户需要根据错误线索和查看对应的错误日志锁定具体权限问题,并手动修改用户的执行权限或修改执行用户。此外,如果用户想去除 sudo
,可修改 CurveAdm 配置文件中的 sudo_alias
配置项,将其设置为空即可,详见CurveAdm 配置文件
示例:
[defaults]
log_level = info
sudo_alias = "" # 将其置为空即可
timeout = 300
auto_upgrade = true
[ssh_connections]
retries = 3
timeout = 10
描述: 当前主机的内核版本无法被识别
如何解决: 用户可根据错误线索和查看相应的错误日志来确认对应的主机内核版本是否不符合要求,并根据规范进行修改
描述: 当前内核版本不支持 renameat()
接口
如何解决: 用户可将 chunkserver 中的 fs.enable_renameat2
配置项设置成 false
,执行curveadm config commit topology.yaml
提交拓扑文件后重新执行预检即可
示例:
chunkserver_services:
config:
...
fs.enable_renameat2: false
描述: 未加载内核 nbd 模块
如何解决: CurveBS 客户端依赖内核 nbd
模块,若当前操作系统没有该模块,用户需自行编译并将其导入
描述: 未加载内核 fuse 模块
如何解决: CurveFS 客户端依赖内核 fuse
模块,若当前操作系统没有该模块,用户需自行编译并将其导入
描述: 相应主机上端口已被占用
如何解决: 用户可根据错误线索快速锁定哪台主机的哪台端口已被占用,可登录主机杀掉占用此端口的服务或修改拓扑文件中服务的端口,使其与此端口不冲突
示例:
改错误线索表明 server-host1 这台主机的 7700 端口已被占用
---
Error-Code: 540000
Error-Description: port is already in use
Error-Clue: host=server-host1, port=7700
How to Solve:
* Website: https://github.com/opencurve/curveadm/wiki/errno#540000
* Log: /home/nbs/.curveadm/logs/curveadm-2022-08-25_10-19-39.log
* WeChat: opencurve_bot
描述: 对应主机无法到达
如何解决: CurveAdm 在需要连通的服务之间会通过 ping
来探测其网络连通性,当出现网络不联通时,用户需根据错误线索和查看相应的日志锁定哪些主机之间的网络是不联通的,并解决之
描述: 无法连接虚拟服务的地址
如何解决: CurveAdm 为检测防火墙是否禁止拓扑文件中服务监听的地址访问,会预先在各主机上启动一批相同监听地址的虚拟服务,并在需要互相访问的主机之间利用 telnet
来检测其连通性。当用户收到该错误码时,用户需要根据错误线索快速锁定哪台主机的哪些服务端口被禁止访问,并调整相应的防火墙规则
描述: 无效的时间
如何解决: 我们在每台部署服务的主机上运行 data +"%s"
命令来获取当前主机的时间戳,在我们测试的几个发行版中该命令返回的都是以下格式的时间戳。
$ date +"%s"
1661171289
描述: 部署服务的主机之间的最大时间差超过 30 秒
如何解决: 用户得保证所有服务的主机之间的时差最多不超过 30 秒,不然可能导致服务的异常。当收到该错误码时,用户需调整对应主机的时间,使其时差保持在 30 秒之内
描述: 在 chunkserver 配置的数据目录(data_dir
)中未发现 chunkfile pool
如何解决: 为减少写 IO 放大,我们需要提前生成一批固定大小并预写过的 chunk 文件,详见 chunkfile pool 设计。用户可根据使用需求选择以下两种解决方案的任意一种:
对于没有性能要求的测试或体验用户,可以直接关闭 chunkfile pool,用户只需要在 chunkserver 服务的配置项中设置 chunkfilepool.enable_get_chunk_from_pool
为 false,并提交对应的集群拓扑即可:
$ vim topology.yaml
chunkserver_services:
config:
data_dir: /data/chunkserver${service_replicas_sequence}
chunkfilepool.enable_get_chunk_from_pool: false # 关闭 chunkfile pool
...
deploy:
- host: ${machine1}
replicas: 3
...
$ curveadm commit topology.yaml
详见格式化磁盘。特别需要注意的是,format
命令只是启动后台格式化进程,并不意味着格式化已完成,用户需要通过 curveadm format --status
命令查看所有的磁盘都已格式化完成,再进行部署。
描述: CurveFS 客户端配置文件中的 s3.ak
配置项是无效的
如何解决: 如果你以 S3 作为 CurveFS 的数据存储后端,需要在客户端的配置文件中指定对应 S3 的相关配置,请确保 s3.ak
、s3.sk
、s3.endpoint
、s3.bucket_name
这 4 个配置项有效且正确
client.yaml 示例:
kind: curvefs
s3.ak: 0123456789abcdefghijklmnopqrstuv
s3.sk: abcdefghijklmnopqrstuv0123456789
s3.endpoint: nos-eastchina1.126.net
s3.bucket_name: curve
...
描述: CurveFS 客户端配置文件中的 s3.sk
配置项是无效的
如何解决: 如果你以 S3 作为 CurveFS 的数据存储后端,需要在客户端的配置文件中指定对应 S3 的相关配置,请确保 s3.ak
、s3.sk
、s3.endpoint
、s3.bucket_name
这 4 个配置项有效且正确
client.yaml 示例:
kind: curvefs
s3.ak: 0123456789abcdefghijklmnopqrstuv
s3.sk: abcdefghijklmnopqrstuv0123456789
s3.endpoint: nos-eastchina1.126.net
s3.bucket_name: curve
...
描述: CurveFS 客户端配置文件中的 s3.endpoint
配置项是无效的
如何解决: 如果你以 S3 作为 CurveFS 的数据存储后端,需要在客户端的配置文件中指定对应 S3 的相关配置,请确保 s3.ak
、s3.sk
、s3.endpoint
、s3.bucket_name
这 4 个配置项有效且正确
client.yaml 示例:
kind: curvefs
s3.ak: 0123456789abcdefghijklmnopqrstuv
s3.sk: abcdefghijklmnopqrstuv0123456789
s3.endpoint: nos-eastchina1.126.net
s3.bucket_name: curve
...
描述: CurveFS 客户端配置文件中的 s3.bucket_name
配置项是无效的
如何解决: 如果你以 S3 作为 CurveFS 的数据存储后端,需要在客户端的配置文件中指定对应 S3 的相关配置,请确保 s3.ak
、s3.sk
、s3.endpoint
、s3.bucket_name
这 4 个配置项有效且正确
client.yaml 示例:
kind: curvefs
s3.ak: 0123456789abcdefghijklmnopqrstuv
s3.sk: abcdefghijklmnopqrstuv0123456789
s3.endpoint: nos-eastchina1.126.net
s3.bucket_name: curve
...
描述: 相关主机上未安装 Docker
如何解决: 用户可根据错误线索来确定哪台主机未安装 Docker,并登录相应主机安装 Docker,详见安装依赖
描述: Docker 守护进程未运行
如何解决: 安装 Docker 后需确保 Docker 服务端的守护进程处于运行状态,你可以通过以下命令来启动 Docker:
$ sudo systemctl enable docker
$ sudo systemctl start docker
描述: 磁盘空间已满
如何解决: 用户可根据错误线索来确定哪台主机哪块磁盘没有剩余空间,登录相应主机删除不必要的文件以腾出空间
© 2023 Curve Team. All Rights Reserved