【mimic】ceph集群手动搭建

1 核心组件介绍

创新互联是专业的盐山网站建设公司,盐山接单;提供做网站、成都网站建设,网页设计,网站设计,建网站,PHP网站建设等专业做网站服务;采用PHP框架,可快速的进行盐山网站开发网页制作和功能扩展;专业做搜索引擎喜爱的网站,专业的做网站团队,希望更多企业前来合作!

Object

  • Ceph最底层的存储单元是Object对象,每个Object包含元数据和原始数据。

OSD

  • OSD全称Object Storage Device,也就是负责响应客户端请求返回具体数据的进程。一个Ceph集群一般都有很多个OSD。

PG

  • PG全称Placement Grouops,是一个逻辑的概念,一个PG包含多个OSD。引入PG这一层其实是为了更好的分配数据和定位数据。

Monitor

  • 一个Ceph集群需要多个Monitor组成的小集群,它们通过Paxos同步数据,用来保存OSD的元数据。

RADOS

  • RADOS全称Reliable Autonomic Distributed Object Store,是Ceph集群的精华,用户实现数据分配、Failover等集群操作。

Libradio

  • Librados是Rados提供库,因为RADOS是协议很难直接访问,因此上层的RBD、RGW和CephFS都是通过librados访问的,目前提供PHP、Ruby、Java、Python、C和C++支持。

CRUSH

  • CRUSH是Ceph使用的数据分布算法,类似一致性哈希,让数据分配到预期的地方。

RBD

  • RBD全称RADOS block device,是Ceph对外提供的块设备服务。

RGW

  • RGW全称RADOS gateway,是Ceph对外提供的对象存储服务,接口与S3和Swift兼容。

MDS

  • MDS全称Ceph Metadata Server,是CephFS服务依赖的元数据服务。

CephFS

  • CephFS全称Ceph File System,是Ceph对外提供的文件系统服务。

2 安装准备

操作系统:CentOS Linux release 7.4.1708 (Core)

内核版本:3.10.0-693.el7.x86_64

服务器使用规划

Node

Host Name

Ceph Deploy

Ceph Admin

Mon

OSD

MDS

MGR

RGW

192.168.2.241

node1



192.168.2.242

node2




192.168.2.243

node3






192.168.2.244

node4







192.168.2.245

node5







存储准备

node4、node5两个osd节点单独挂载一个5G大小的存储盘

目录规划

  • /install           #用来存放安装文件

创建以上目录(node1)

mkdir /install

依次修改主机名,xx请替换1-5

hostnamectl set-hostname nodexx

配置免密访问(管理节点)

ssh-keygen
ssh-copy-id node1
ssh-copy-id node2
ssh-copy-id node3
ssh-copy-id node4
ssh-copy-id node5

修改主机hosts配置(管理节点)

vi /etc/hosts
192.168.2.241 node1
192.168.2.242 node2
192.168.2.243 node3
192.168.2.244 node4
192.168.2.245 node5

同步hosts配置到其他节点

scp /etc/hosts node2:/etc/
scp /etc/hosts node3:/etc/
scp /etc/hosts node4:/etc/
scp /etc/hosts node5:/etc/

关闭防火墙(所有节点)

setenforce 0
systemctl stop firewalld && systemctl disable firewalld

时间同步(所有节点)

yum install ntp ntpdate -y
ntpdate cn.pool.ntp.org
systemctl enable ntpd
systemctl start ntpd

内核优化(node1)

vi /etc/sysctl.conf
net.ipv4.tcp_fin_timeout = 2
net.ipv4.tcp_tw_reuse = 1 
net.ipv4.tcp_tw_recycle = 1 
net.ipv4.tcp_syncookies = 1 
net.ipv4.tcp_keepalive_time = 600 
net.ipv4.tcp_keepalive_probes = 5 
net.ipv4.tcp_keepalive_intvl = 15
net.ipv4.ip_local_port_range = 1024 65000
net.ipv4.tcp_max_syn_backlog = 262144
net.ipv4.tcp_max_tw_buckets =5000
net.ipv4.tcp_syn_retries = 1
net.ipv4.tcp_synack_retries = 1
net.core.somaxconn = 16384
net.core.netdev_max_backlog = 16384
net.ipv4.tcp_max_orphans = 16384

同步到其他节点

scp /etc/sysctl.conf node2:/etc
scp /etc/sysctl.conf node3:/etc
scp /etc/sysctl.conf node4:/etc
scp /etc/sysctl.conf node5:/etc
vi /etc/security/limits.conf
soft nofile 1024000
hard nofile 1024000
root soft nofile 1024000
root hard nofile 1024000

同步到其他节点

scp /etc/security/limits.conf node2:/etc/security
scp /etc/security/limits.conf node3:/etc/security
scp /etc/security/limits.conf node4:/etc/security
scp /etc/security/limits.conf node5:/etc/security

生效配置(所有节点)

sysctl -p

修改环境配置(所有节点)

echo "ulimit -HSn 102400" >> /etc/profile

添加yum源

cat << EOM > /etc/yum.repos.d/ceph.repo
[Ceph-SRPMS]
name=Ceph SRPMS packages
baseurl=https://mirrors.aliyun.com/ceph/rpm-mimic/el7/SRPMS/
enabled=1
gpgcheck=0
type=rpm-md
[Ceph-aarch74]
name=Ceph aarch74 packages
baseurl=https://mirrors.aliyun.com/ceph/rpm-mimic/el7/aarch74/
enabled=1
gpgcheck=0
type=rpm-md
[Ceph-noarch]
name=Ceph noarch packages
baseurl=https://mirrors.aliyun.com/ceph/rpm-mimic/el7/noarch/
enabled=1
gpgcheck=0
type=rpm-md
[Ceph-x86_64]
name=Ceph x86_64 packages
baseurl=https://mirrors.aliyun.com/ceph/rpm-mimic/el7/x86_64/
enabled=1
gpgcheck=0
type=rpm-md
EOM

同步到其他节点

scp /etc/yum.repos.d/ceph.repo node2:/etc/yum.repos.d
scp /etc/yum.repos.d/ceph.repo node3:/etc/yum.repos.d
scp /etc/yum.repos.d/ceph.repo node4:/etc/yum.repos.d
scp /etc/yum.repos.d/ceph.repo node5:/etc/yum.repos.d

清理缓存(所有节点)

yum makecache

3 集群部署

安装依赖(所有节点)

yum install -y https://mirrors.aliyun.com/epel/epel-release-latest-7.noarch.rpm

安装ceph(所有节点)

yum -y install epel-release ceph ceph-radosgw ceph-common deltarpm

安装ceph-deploy(node1执行)

yum install -y ceph-deploy

创建一个名称为mycluster的集群,如果没有指定--clster,默认名称为ceph,集群节点(mon)包括node{1,2,3}(node1执行)

cd /install
ceph-deploy --cluster mycluster new node{1,2,3}

修改ceph配置文件,增加网段(生产环境以实际为准,建议public和cluster使用不同的段)

vi ceph.conf
public network = 192.168.2.0/24
cluster network = 192.168.2.0/24
mon_allow_pool_delete = true
osd pool default size = 2
osd pool default min size = 1
osd pool default pg num = 64
osd pool default pgp num = 64

创建和初始化监控节点并收集所有的秘钥(node1执行)

ceph-deploy mon create-initial

将配置文件和管理秘钥复制到管理节点和ceph节点(node1执行)

ceph-deploy admin node{1,2,3,4,5}

部署mgr(node1执行)

ceph-deploy mgr create node{1,2}

部署osd(node1执行)

ceph-deploy osd create --data /dev/sdb node4
ceph-deploy osd create --data /dev/sdb node5

4 启用Dashboard

先查看dashboard状态

ceph mgr services

启用dashboard

ceph mgr module enable dashboard

生成自签名证书

ceph dashboard create-self-signed-cert

cd /install
openssl req \
-new -nodes \
-x509 \
-subj "/O=IT/CN=ceph-mgr-dashboard" \
-days 3650 \
-keyout dashboard.key \
-out dashboard.crt \
-extensions v3_ca

启用证书

ceph config-key set mgr mgr/dashboard/crt -i dashboard.crt
ceph config-key set mgr mgr/dashboard/key -i dashboard.key

不用证书功能的时候,可以选择禁用证书

ceph config set mgr mgr/dashboard/ssl false

注:更换证书后,需要重启dashboard

ceph mgr module disable dashboard
ceph mgr module enable dashboard

配置服务地址、端口(生产环境中,mgr的访问地址建议使用域名或者负载IP)

ceph config set mgr mgr/dashboard/server_addr 192.168.2.241
ceph config set mgr mgr/dashboard/server_port 8443

创建用户

ceph dashboard set-login-credentials admin admin

重启mgr

systemctl restart ceph-mgr@node1

浏览器访问

https://192.168.2.241:8443

5 块存储

任意ceph集群主机执行

创建存储池,命名为ec,pg和pgs分配为64(这里只是测试,生产环境请按公式计算pg和pgs)

ceph osd pool create ec 64 64

rbd方式启用该存储池

ceph osd pool application enable ec rbd

创建用户client.ec,用于客户端挂载访问

ceph auth get-or-create client.ec \
mon 'allow r'  \
osd 'allow rwx pool=ec' \
-o /etc/ceph/ceph.client.ec.keyring

远端客户端挂载

检查客户端内核版本,内核版本建议在2.6.34以上版本

uname -r

检查当前内核版本是否支持rbd

modprobe rbd && lsmod|grep rbd

在hosts配置添加ceph集群主机映射

vi /etc/hosts
192.168.2.241 node1
192.168.2.242 node2
192.168.2.243 node3
192.168.2.244 node4
192.168.2.245 node5

考虑到国外下载慢的问题,配置国内镜像源

cat << EOM > /etc/yum.repos.d/ceph.repo
[Ceph-SRPMS]
name=Ceph SRPMS packages
baseurl=https://mirrors.aliyun.com/ceph/rpm-mimic/el7/SRPMS/
enabled=1
gpgcheck=0
type=rpm-md
[Ceph-aarch74]
name=Ceph aarch74 packages
baseurl=https://mirrors.aliyun.com/ceph/rpm-mimic/el7/aarch74/
enabled=1
gpgcheck=0
type=rpm-md
[Ceph-noarch]
name=Ceph noarch packages
baseurl=https://mirrors.aliyun.com/ceph/rpm-mimic/el7/noarch/
enabled=1
gpgcheck=0
type=rpm-md
[Ceph-x86_64]
name=Ceph x86_64 packages
baseurl=https://mirrors.aliyun.com/ceph/rpm-mimic/el7/x86_64/
enabled=1
gpgcheck=0
type=rpm-md
EOM

清理缓存

yum makecache

安装依赖

yum install -y https://mirrors.aliyun.com/epel/epel-release-latest-7.noarch.rpm

安装ceph客户端

yum -y install ceph-common

将服务端生成的用户秘钥(client.ec)拷贝到客户端服务器

scp -r /etc/ceph/ceph.client.ec.keyring node5:/etc/ceph

验证用户权限,由于没有使用admin账号,所以每次都需要指定访问用户

ceph -s --name client.ec

在存储池ec上创建块设备(磁盘),命名为ec,分配最大存储空间10G

rbd create ec/ec --size 10G --image-format 2 --image-feature layering --name client.ec

查看创建的块设备

rbd info ec/ec --name client.ec
或
rbd info -p ec ec --name client.ec

将块设备映射到本地磁盘

rbd map ec/ec --name client.ec

格式化磁盘,可以选择格式化成ext4或xfs

mkfs.ext4 /dev/rbd0

创建挂载目录

mkdir /ecdata

将盘符挂载到该目录

mount /dev/rbd0 /ecdata

查看挂载状态

df -h
rbd showmapped

扩容

rbd resize --size xxG pool-name/image-name

扩容存储空间后,在客户端不会立即生效,需要在客户端执行如下操作

#针对ext文件系统,rbd0为映射的本地设备名
blockdev --getsize64 /dev/rbd0
resize2fs /dev/rbd0

#针对xfs文件系统,还需要执行如下命令,mnt为挂载点
xfs_growfs /mnt

创建快照

rbd snap create ec/ec@ec-snap

回滚快照(出现回滚失败时,需要先解除挂载和本地映射)

rbd snap rollback ec/ec@ec-snap

克隆快照

rbd snap protect ec/ec@ec-snap
rbd snap clone ec/ec@ec-snap new-ec-pool

6 文件存储

服务端

部署mds(node1执行),启用文件存储时创建

ceph-deploy mds create node2

创建存储池

ceph osd pool create cephfs_data 64
ceph osd pool create cephfs_metadata 64

创建文件系统

ceph fs new cephfs cephfs_metadata cephfs_data

查看MDS服务器状态

ceph mds stat

创建用户

ceph auth get-or-create client.cephfs \
mon 'allow r' \
mds 'allow r,allow rw path=/' \
osd 'allow rw pool=cephfs_data' \
-o /etc/ceph/ceph.client.cephfs.keyring

同步key到其他节点

scp /etc/ceph/ceph.client.cephfs.keyring node2:/etc/ceph
scp /etc/ceph/ceph.client.cephfs.keyring node3:/etc/ceph

查看用户key

ceph auth get-key client.cephfs

客户端

挂载ceph文件系统(启用cephx认证后,必须指定授权用户),其中192.168.2.241为mon地址

mount -t ceph node1:6789:/ /data -o name=cephfs,secret=AQAHs9RdRVLkOBAAYl1JZqYupcHnORttIo+Udg==

echo "AQAHs9RdRVLkOBAAYl1JZqYupcHnORttIo+Udg==" > /etc/ceph/cephfskey
mount -t ceph node1:6789:/ /data -o name=cephfs,secretfile=/etc/ceph/cephfskey

写入数据测试(1G)

dd if=/dev/zero of=/data/file2 bs=1M count=1024

开机自动挂载

echo "node1:6789:/ /data/ ceph name=cephfs,secret=AQAHs9RdRVLkOBAAYl1JZqYupcHnORttIo+Udg==,_netdev,noatime 0 0" >> /etc/fstab

echo "node1:6789:/ /data/ ceph name=cephfs,secretfile=/etc/ceph/cephfskey,_netdev,noatime 0 0" >> /etc/fstab


当前文章:【mimic】ceph集群手动搭建
本文来源:http://azwzsj.com/article/iighsh.html