Ceph分布式存储系统的介绍及详细安装部署过程:详细实战版(保姆级)

Ceph简介

Ceph是一个统一的分布式存储系统,设计初衷是提供较好的性能、可靠性和可扩展性。
Ceph项目最早起源于Sage就读博士期间的工作(最早的成果于2004年发表),并随后贡献给开源社区。
在经过了数年的发展之后,目前已得到众多云计算厂商的支持并被广泛应用。
RedHat及OpenStack都可与Ceph整合以支持虚拟机镜像的后端存储。

Ceph特点

• 高性能
a. 摒弃了传统的集中式存储元数据寻址的方案,采用CRUSH算法,数据分布均衡,并行度高。
b.考虑了容灾域的隔离,能够实现各类负载的副本放置规则,例如跨机房、机架感知等。
c. 能够支持上千个存储节点的规模,支持TB到PB级的数据。

• 高可用性
a. 副本数可以灵活控制。
b. 支持故障域分隔,数据强一致性。
c. 多种故障场景自动进行修复自愈。
d. 没有单点故障,自动管理。

• 高可扩展性
a. 去中心化。
b. 扩展灵活。
c. 随着节点增加而线性增长。

• 特性丰富
a. 支持三种存储接口:块存储、文件存储、对象存储。
b. 支持自定义接口,支持多种语言驱动。

Ceph架构

支持三种接口:
• Object:有原生的API,而且也兼容Swift和S3的API。
• Block:支持精简配置、快照、克隆。
• File:Posix接口,支持快照。
在这里插入图片描述

Ceph核心组件及概念介绍

• Monitor
一个Ceph集群需要多个Monitor组成的小集群,它们通过Paxos同步数据,用来保存OSD的元数据。

• OSD
OSD全称Object Storage Device,也就是负责响应客户端请求返回具体数据的进程。一个Ceph集群一般都有很多个OSD。

• MDS
MDS全称Ceph Metadata Server,是CephFS服务依赖的元数据服务。

• Object
Ceph最底层的存储单元是Object对象,每个Object包含元数据和原始数据。

• PG
PG全称Placement Grouops,是一个逻辑的概念,一个PG包含多个OSD。引入PG这一层其实是为了更好的分配数据和定位数据。

• RADOS
RADOS全称Reliable Autonomic Distributed Object Store,是Ceph集群的精华,用户实现数据分配、Failover等集群操作。

• Libradio
Librados是Rados提供库,因为RADOS是协议很难直接访问,因此上层的RBD、RGW和CephFS都是通过librados访问的,目前提供PHP、Ruby、Java、Python、C和C++支持。

• CRUSH
CRUSH是Ceph使用的数据分布算法,类似一致性哈希,让数据分配到预期的地方。

• RBD
RBD全称RADOS block device,是Ceph对外提供的块设备服务。

• RGW
RGW全称RADOS gateway,是Ceph对外提供的对象存储服务,接口与S3和Swift兼容。

• CephFS
CephFS全称Ceph File System,是Ceph对外提供的文件系统服务。

• Pool:存储池,是存储对象的逻辑分区,它规定了数据冗余的类型和对应的副本
分布策略;支持两种类型:副本(replicated)和 纠删码(Erasure Code)
> 一个Pool里有很多PG;
> 一个PG里包含一堆对象;一个对象只能属于一个PG;
> PG属于多个OSD,分布在不同的OSD上;

实验环境

server153 centos7 192.168.121.153 系统盘sda OSD: sdb sdc 20GB ceph-deploy mon X 1 osd X 2
server154 centos7 192.168.121.154 系统盘sda OSD: sdb sdc 20GB mon X 1 osd X 2
server155 centos7 192.168.121.155 系统盘sda OSD: sdb sdc 20GB mon X 1 osd X 2

首先就是环境的准备,我这里选用三台主机
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
这样环境就准备好了,接下来启动三台主机
先同步所有机器的时间,ceph分布式存储系统对时间的要求还是比较严格的

yum  install -y  ntpdate
ntpdate  ntp.aliyun.com

然后配置主机间的解析,这个看自己的集群来配

vim /etc/hosts

在这里插入图片描述
关闭selinux

setenforce  0
sed  -i  '/SELINUX=/cSELINUX=disabled'    /etc/selinux/config

然后配置各主机之间的ssh密钥互信,这里我就不介绍了
这个我在之前的作品中有详细介绍过,忘记了的话可以去看看
ssh密钥互信的配置
还要注意一点,对自己主机的密钥互信也要配,不是其它两台而已

然后修改最大打开文件数

cat > /etc/security/limits.conf << EOF
*  soft  nofile  65535
*  hard  nofile 65535
EOF

然后退出重连,让配置文件在当前环境生效
在这里插入图片描述
配置软件包下载的yum源,在阿里源就有
配置阿里的epel源

wget -O /etc/yum.repos.d/epel.repo https://mirrors.aliyun.com/repo/epel-7.repo

然后配置ceph的yum源,阿里也有,根据自己的系统来选,我用的是centos7
这个是阿里镜像源
在这里插入图片描述

cat > /etc/yum.repos.d/ceph.repo << EOF
[ceph]
name=ceph
baseurl=http://mirrors.aliyun.com/ceph/rpm-nautilus/el7/x86_64/
gpgcheck=0
priority=1[ceph-noarch]
name=cephnoarch
baseurl=http://mirrors.aliyun.com/ceph/rpm-nautilus/el7/noarch/
gpgcheck=0
priority=1[ceph-source]
name=Ceph source packages
baseurl=http://mirrors.aliyun.com/ceph/rpm-nautilus/el7/SRPMS
gpgcheck=0
priority=1
EOF

重新制作yum缓存

yum  clean all
yum  makecache  fast 

选一台主机来安装ceph-deploy,用于集群的初始化
可以用别的主机,也可以用这三台中的某一台,我这里选用153
用pip来安装,因为yum安装的版本太低

[root@server153 ~]# pip  install  ceph-deploy==2.0.1  -i https://mirrors.aliyun.com/pypi/simple/

查看ceph版本是否对

[root@server153 ~]# ceph-deploy --version
2.0.1

没问题就开始初始化集群
先创建一个目录来执行后面的命令,因为后面会产生一些配置文件,都是在这个目录里执行才有效

[root@server153 ~]# mkdir  ~/ceph-cluster
[root@server153 ~]# cd ~/ceph-cluster/

开始创建集群

[root@server153 ceph-cluster]# ceph-deploy new server153 server154 server155

在这里插入图片描述
这样集群就创建好了

然后所有节点安装 ceph 组件包,当然了在ceph-deploy执行就可以了

[root@server153 ceph-cluster]# ceph-deploy  install --no-adjust-repos server153 server154 server155

部署 monitor 服务,产生相关的管理秘钥

[root@server153 ceph-cluster]# ceph-deploy mon create-initial

查看当前目录产生的文件

[root@server153 ceph-cluster]# ls
ceph.bootstrap-mds.keyring  ceph.client.admin.keyring
ceph.bootstrap-mgr.keyring  ceph.conf
ceph.bootstrap-osd.keyring  ceph-deploy-ceph.log
ceph.bootstrap-rgw.keyring  ceph.mon.keyring

查看启动的服务和端口
在这里插入图片描述
将配置文件分发给所以节点

[root@server153 ceph-cluster]# ceph-deploy admin server153 server154 server155

在这里插入图片描述

然后查看我们添加的两块磁盘

ls: cannot access blk: No such file or directory
[root@server153 ceph-cluster]# lsblk
NAME               MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda                  8:0    0   40G  0 disk 
├─sda1               8:1    0  400M  0 part /boot
└─sda2               8:2    0 39.6G  0 part ├─centos-lv_root 253:0    0 37.6G  0 lvm  /└─centos-lv_swap 253:1    0    2G  0 lvm  [SWAP]
sdb                  8:16   0   20G  0 disk 
sdc                  8:32   0   20G  0 disk 
sr0                 11:0    1 1024M  0 rom  

每个节点都一样的
现在将他们创建为osd对象

[root@server153 ceph-cluster]# ceph-deploy  osd create --data /dev/sdb server153
[root@server153 ceph-cluster]# ceph-deploy  osd create --data /dev/sdb server154
[root@server153 ceph-cluster]# ceph-deploy  osd create --data /dev/sdb server155
[root@server153 ceph-cluster]# ceph-deploy  osd create --data /dev/sdc server153
[root@server153 ceph-cluster]# ceph-deploy  osd create --data /dev/sdc server154
[root@server153 ceph-cluster]# ceph-deploy  osd create --data /dev/sdc server155

然后部署 MGR 服务

[root@server153 ceph-cluster]# ceph-deploy  mgr   create  server153 server154 server155

然后查看集群情况

[root@server153 ceph-cluster]# ceph -s

在这里插入图片描述
可以看到是正常的,但是有一个警告,提示 mon允许运行在 全局 非安全环境下
所以我们现在去解决这个问题

[root@server153 ceph-cluster]# ceph config set  mon  auth_allow_insecure_global_id_reclaim false

然后再查看集群的情况

[root@server153 ceph-cluster]# ceph -s

在这里插入图片描述
这样集群就正常了
ceph分布式存储系统的安装这样就完成了
希望对大家有用
下一篇再讲ceph分布式存储系统的使用

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/216311.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

管理类联考——数学——汇总篇——知识点突破——代数——函数——记忆

文章目录 整体文字提炼图像绘画 考点记忆/考点汇总——按大纲 本篇思路&#xff1a;根据各方的资料&#xff0c;比如名师的资料&#xff0c;按大纲或者其他方式&#xff0c;收集/汇总考点&#xff0c;即需记忆点&#xff0c;在通过整体的记忆法&#xff0c;比如整体信息很多&am…

VMware Workstation 17 虚拟机自启动失效 解决脚本

VMware Workstation17新增加了虚拟机自启配置 但是很奇怪在我的一台计算机上能够自启&#xff0c;在另一台计算机上就失效 编写脚本 以命令方式完成虚拟机开机自启 #虚拟机自启.batif "%1""hide" goto CmdBegin start mshta vbscript:createobject("w…

win10安装pytorch(py39)

cuda≤11.6&#xff0c;观察控制面板 观察torch对应cuda版本 https://download.pytorch.org/whl/torch/ 安装cuda11.6.0 CUDA Toolkit Archive | NVIDIA Developer cmd输入nvcc -V 编辑国内镜像源 .condarc anaconda prompt输入 查看环境 conda env list 安装py3.9…

某软件商店app抓包分析与sign加密算法实现

文章目录 1. 写在前面2. 抓包配置3. 抓包分析4. 接口测试5. sign加密算法6. 数据效果展示 【作者主页】&#xff1a;吴秋霖 【作者介绍】&#xff1a;Python领域优质创作者、阿里云博客专家、华为云享专家。长期致力于Python与爬虫领域研究与开发工作&#xff01; 【作者推荐】…

数据治理技术:研究现状与数据规范

随着信息技术的迅速发展,数据规模逐渐扩大&#xff0c;与此同时&#xff0c;劣质数据也随之而来&#xff0c;极大地降低了数据挖掘的质量&#xff0c;对信息社会造成了严重的困扰&#xff0c;劣质数据大量存在于很多领域和机构&#xff0c;国外权威机构的统计表明&#xff1a;美…

0001Java程序设计-springboot基于微信小程序批发零售业商品管理系统

文章目录 **摘 要****目录**系统实现开发环境 编程技术交流、源码分享、模板分享、网课分享 企鹅&#x1f427;裙&#xff1a;776871563 摘 要 本毕业设计的内容是设计并且实现一个基于微信小程序批发零售业商品管理系统。它是在Windows下&#xff0c;以MYSQL为数据库开发平台…

Redis-主从与哨兵架构

Jedis使用 Jedis连接代码示例&#xff1a; 1、引入依赖 <dependency><groupId>redis.clients</groupId><artifactId>jedis</artifactId><version>2.9.0</version> </dependency> 2、访问代码 public class JedisSingleTe…

Git仓库瘦身大作战:133M 到 4M 的实战

开局两张图 瘦身前瘦身后 目录 开局两张图前言下载 BFG克隆代码Git 仓库瘦身清理存储库储存库 GC推送仓库 Git 瘦身验证结语开源项目 前言 在进行项目开发的过程中&#xff0c;代码仓库的体积可能会逐渐增大&#xff0c;特别是在版本控制系统中保留了大量的历史提交记录和不必…

统计二叉树中的伪回文路径 : 用位运用来加速??

题目描述 这是 LeetCode 上的 「1457. 二叉树中的伪回文路径」 &#xff0c;难度为 「中等」。 Tag : 「DFS」、「位运算」 给你一棵二叉树&#xff0c;每个节点的值为 1 到 9 。 我们称二叉树中的一条路径是 「伪回文」的&#xff0c;当它满足&#xff1a;路径经过的所有节点值…

使用 STM32F7 和 TensorFlow Lite 开发低功耗人脸识别设备

本文旨在介绍如何使用 STM32F7 和 TensorFlow Lite框架开发低功耗的人脸识别设备。首先&#xff0c;我们将简要介绍 STM32F7 的特点和能力。接下来&#xff0c;我们将讨论如何使用 TensorFlow Lite 在 STM32F7 上实现人脸识别算法。然后&#xff0c;我们将重点关注如何优化系统…

网络数据结构skb_buff原理

skb_buff基本原理 内核中sk_buff结构体在各层协议之间传输不是用拷贝sk_buff结构体&#xff0c;而是通过增加协议头和移动指针来操作的。如果是从L4传输到L2&#xff0c;则是通过往sk_buff结构体中增加该层协议头来操作&#xff1b;如果是从L4到L2&#xff0c;则是通过移动sk_…

golang defer关键词执行原理与代码分析

使用的go版本为 go1.21.2 首先我们写一个简单的defer调度代码 package mainimport "fmt"func main() {defer func() {fmt.Println("xiaochuan")}() }通过go build -gcflags -S main.go获取到对应的汇编代码 可以在图中看到有个CALL runtime.deferreturn(…