CEPH企业级分布式存储实战

CEPH企业级分布式存储实战

从部署到架构,手把手掌握企业级Ceph存储落地

CEPH企业级分布式存储实战
¥199.99
本课程包括
  • 3小时36分钟的视频随时观看
  • 可在APP随时观看
  • 结业证书
你将收获
  • 学习云分布式存储相关理论。
  • 分布式存储CEPH体系架构。
  • 分布式存储CEPH安装及运维方法。
浏览相关主题
课程介绍

Ceph 是一款开源、统一、去中心化的软件定义分布式存储系统,基于通用商用硬件构建,可同时提供对象存储、块存储、文件存储三种服务,具备高可扩展性、高可靠性、无单点故障与自愈能力,广泛应用于云计算、大数据、容器化等场景。

一、核心定位与优势

1. 核心定位

  • 统一存储:一套后端集群支撑三种主流存储接口,替代传统多套存储系统,降低运维成本。

  • 去中心化:无中心元数据节点(文件存储除外),避免单点瓶颈,支持线性扩展至EB 级规模。

  • 开源免费:基于 LGPL 协议开源,社区活跃,无厂商锁定风险。

2. 核心优势

表格

特性说明高扩展性支持从 TB 级到 EB 级无缝扩展,新增节点自动数据平衡高可靠性多副本 / 纠删码冗余、故障自愈、数据校验(Scrubbing)高性能基于 CRUSH 算法实现数据智能分布,并行读写,无集中式寻址低成本运行于普通 x86 服务器与 SATA/NVMe 硬盘,无需专用硬件多接口兼容支持 S3/Swift 对象、RBD 块、POSIX 文件系统,适配多场景

二、架构与核心组件

Ceph 架构分为底层 RADOS 核心层上层接口层,核心组件分工明确,协同实现分布式存储能力。

1. 底层 RADOS(可靠自主对象存储)

Ceph 的核心存储引擎,所有数据最终以对象形式存储,负责数据分布、复制、故障恢复与自愈,由以下核心组件构成:

  • Monitor(MON,监视器)

    集群的 “大脑”,维护集群映射(Cluster Map),包括 OSD 状态、CRUSH 规则、配置信息等;采用Paxos 算法实现集群状态共识,需部署奇数个节点(推荐 3/5 个)保证高可用,监听端口 6789(v1)/3300(v2)。

  • OSD(对象存储设备)

    数据的 “载体”,每个 OSD 对应一块物理硬盘,负责数据存储、副本同步、故障检测、数据恢复与负载均衡;集群中 OSD 数量越多,存储与处理能力越强,是 Ceph 性能的核心。

  • Manager(MGR,管理节点)

    集群的 “管家”,提供集群监控、性能统计、告警、配置管理等功能,辅助 MON 完成集群运维,可部署多节点实现高可用。

  • MDS(元数据服务器,仅 CephFS 需要)

    负责管理 CephFS 的文件系统元数据(目录结构、权限、时间戳等),实现 POSIX 兼容的共享文件系统,可部署多 MDS 实现负载与高可用。

2. 上层接口层

基于 RADOS 提供标准化存储接口,适配不同业务场景:

  • RBD(RADOS 块设备):提供可弹性伸缩的块存储,支持快照、克隆、精简配置,适配虚拟机(KVM)、容器、数据库等场景,兼容 QEMU/KVM。

  • CephFS(Ceph 文件系统):提供 POSIX 兼容的共享文件系统,支持多客户端并发访问,适合大数据分析、文件共享等场景。

  • RGW(对象存储网关):兼容 Amazon S3、OpenStack Swift RESTful API,提供对象存储服务,是私有云 / 混合云对象存储的主流选择。

三、核心技术原理

1. CRUSH 算法

Ceph 的核心算法,全称受控复制下的智能分发,替代传统集中式元数据索引:

  • 客户端通过 CRUSH 算法直接计算数据存储位置,无需中心节点查询,降低延迟与瓶颈。

  • 支持自定义故障域(机架、机房、主机),可配置数据副本 / 纠删码策略,保证数据可靠性。

2. 数据存储流程

  1. 数据分割:文件 / 块数据被分割为固定大小的对象(默认 4MB),每个对象包含数据、元数据、唯一 ID。

  2. 映射至 PG:对象通过哈希算法映射到PG(Placement Group,放置组),PG 是数据管理的逻辑容器,简化元数据管理。

  3. CRUSH 分配:CRUSH 算法根据 PG 与集群拓扑,将 PG 分配到一组 OSD 上,实现数据分布式存储。

3. 数据冗余与恢复

  • 副本机制:默认 3 副本,可自定义副本数,数据同步写入多个 OSD,故障时自动切换。

  • 纠删码(EC):替代多副本的低成本冗余方案,通过编码计算实现数据恢复,存储效率更高(如 4+2 模式,仅需 20% 冗余)。

  • 自愈能力:OSD 故障时,集群自动检测并将数据副本重建至健康 OSD;节点扩容时,自动数据平衡,无需人工干预。

四、典型应用场景

  1. 云计算基础设施:作为 OpenStack、Kubernetes、VMware 的底层存储,提供虚拟机镜像、容器持久化存储。

  2. 大数据存储:支撑 Hadoop、Spark、Flink 等大数据框架的分布式存储与计算。

  3. 对象存储服务:替代公有云 S3,提供私有云对象存储,用于归档、备份、媒体资源存储。

  4. 数据库存储:为 MySQL、PostgreSQL、MongoDB 等提供高可用块存储。

  5. 文件共享场景:CephFS 替代 NFS,实现多客户端并发文件共享与 POSIX 兼容。

五、部署与生态

  • 部署方式:支持手动部署、Ceph-Admin、Rook(Kubernetes Operator)、Cephadm 等,适配物理机与云环境。

  • 生态支持:与 Red Hat、SUSE、Ubuntu 等主流 Linux 发行版集成,适配 Docker、K8s、OpenStack 等云原生生态。

  • 典型用户:CERN、OVH、DigitalOcean、中国移动、华为、阿里等,广泛应用于全球大型存储集群。

适合人群
  • 云计算运维工程师
  • 分布式存储工程师
  • 云计算求职者
讲师介绍
数据库专家,优秀培训讲师。
擅长领域:
  • 虚拟化
  • 数据库
  • 云数据中心
网名9316,就职于东北电信企业,研究生学历。擅长数据库、云计算、自动化运维等诸多IT领域。
课程大纲
共0节 时长0分钟 全部收起
ceph分布式存储介绍
共4节 | 58分钟
  • 01-01 软件定义存储介绍
    9分钟
  • 01-02 CEPH介绍及特性
    11分钟
  • 01-03 存储硬件基础讲解
    24分钟
  • 01-04 CEPH市场分析及应用场景
    14分钟
ceph分布式存储部署
共5节 | 1小时45分钟
  • 02-01 CEPH部署前期规划
    20分钟
  • 02-02 CEPH集群模板主机安装演示
    27分钟
  • 02-03 CEPH生产环境集群部署演示
    24分钟
  • 02-04 本地YUM源服务器搭建演示
    19分钟
  • 02-05 CEPH集群用多台主机部署演示
    15分钟
ceph分布式存储架构
共3节 | 52分钟
  • 03-01 CEPH集群架构概述
    7分钟
  • 03-02 CEPH集群montor讲解演示
    23分钟
  • 03-03 CEPH集群OSD讲解演示
    22分钟
购课须知

课程有效期:

自购买课程之日起 365 天,部分参与营销活动产品以活动规则为准,请同学在有效期内学习、观看课程。

上课模式:

课程采取录播模式,请注意自学课无班级微信群、班主任带班及助教批改服务。

注:自学课不支持退款,确保你是真的需要再进行报名,报完名之后还请认真学习。