干货满满 | MongoDB集群实战攻略

网友投稿 1470 2023-05-06

干货满满 | ***集群实战攻略

干货满满 | ***集群实战攻略

简介

***是一个开源的,基于分布式的,面向文档存储的菲关系型数据库。可以运行在Windows、Unix、OSX、Solaris系统上,支持32位和64位应用,提供多种编程语言的驱动程序。***支持的数据结构非常松散,是类似JSON的BSON格式,通过键值对的形式存储数据,可以存储复杂的数据类型。

基本概念

文档(document):文档是***的核心概念,是数据的基本单元,类似于关系数据库中的行。在***中,文档表示为键值对的一个有序集。文档一般使用如下的样式来标记:

从上面的例子可以看到,文档的值有不同的数据类型,甚至可以是一个完整的内嵌文档(***一个示例的author就是一个文档)

集合(collection):集合是一组文档的集合,相当于关系型数据库中的数据表,***数据库不是关系型数据库,没有模式的概念。同一集合中的文档可以有不同的形式。比如:

{"name":"jack","age":19}  {"name":"wangjun","age":22,"sex":"1"}

可以存在同一个集合当中。

数据库(database):多个文档构成集合,多个集合组成数据库。一个***实例可以承载多个数据库,每个数据库可以拥有0到多个集合。

*** 的主要目标是在键值对存储方式(提供了高性能和高度伸缩性)以及传统的 RDBMS(关系性数据库)系统,集两者的优势于一身。***适用于以下场景:

网站数据:Mongo 非常适合实时的插入,更新与查询,并具备网站实时数据存储所需的复制及高度伸缩性。缓存:由于性能很高,Mongo 也适合作为信息基础设施的缓存层。在系统重启之后,由 Mongo 搭建的持久化缓存可以避免下层的数据源过载。 大尺寸、低价值的数据:使用传统的关系数据库存储一些数据时可能会比较贵,在此之前,很多程序员往往会选择传统的文件进行存储。高伸缩性的场景:Mongo非常适合由数十或数百台服务器组成的数据库用于对象及JSON数据的存储:Mongo的BSON数据格式非常适合文档格式化的存储及查询。

当然 *** 也有不适合的场景:

高度事务性的系统:例如银行或会计系统。传统的关系型数据库目前还是更适用于需要大量事务的应用程序。传统的商业智能应用:针对特定问题的 BI 数据库能够提供高度优化的查询方式。对于此类应用,数据仓库可能时更适合的选择(如Hadoop套件中的Hive)。需要SQL的问题。

集群攻略

***在商用环境中,为了高可用性,通常都是以集群形式使用的,***的集群环境搭建非常简单,下面就作一个介绍。

主从模式

我们在使用MySQL数据库时广泛采用的模式,采用双机备份后主节点挂掉了后从节点可以接替主机继续服务。所以这种模式比单节点的要可靠得多。

下面看一下怎么一步步搭建***的主从复制节点:

1. 准备两台机器 10.43.159.56 和 10.43.159.58。 10.43.159.56当作主节点, 10.43.159.58作为从节点。

2. 分别下载***安装程序包。在10.43.159.56上建立文件夹/data/***test/master,10.43.159.58建立文件夹/data/***test/slave。

3. 在10.43.159.56启动***主节点程序。注意后面的这个 “ –master ”参数,标示主节点:

mongod –dbpath /data/***test/master–master

输出日志如下,成功:

[initandlisten] *** starting :pid=18285 port=27017 dbpath=/data/***test/master master=1

4. 在10.43.159.58启动***从节点程序。关键配置:指定主节点ip地址和端口 –source 10.43.159.56:27017 和标示从节点 –slave参数:

mongod –dbpath /data/***test/slave–slave –source 10.43.159.56:27017

输出日志如下,成功:

[initandlisten] *** starting : pid=17888port=27017 dbpath=/data/***test/slave slave=1

日志显示从节点从主节点同步复制数据 :

[replslave] repl: from host: 10.43.159.56:27017

这样,主从结构的***集群就搭建好了,是不是很简单?

下面我们来看看这个集群能做什么?先登录到从节点shell上,执行插入数据:

mongo 127.0.0.1:27017    > db.testdb.insert({"test3":"testval3"});    not master

可以看到 ***的从节点是只能读,不能执行写操作的。

那么如果主服务器挂掉,从服务器可以接替工作吗?

可以试一下,强制关掉主节点上的***进程,登录在从节点上,再次执行插入数据:

> db.testdb.insert({"test3":"testval3"});    not master

看来从节点并没有自动接替主节点的工作,那就只有人工处理了,停止从节点,再以master的方式启动从节点,由于从节点上数据跟主节点一样,此时从节点是可以替代主节点工作的,这属于人工切换。

此外,我们可以搭建多个从节点,实现数据库的读写分离,比如主节点负责写,多个从节点负责读,对于移动APP,绝大部分操作都是读操作,可以实现负荷分担。

那么,搭建了这套主从结构的集群是不是就能应付商用环境呢?我们发现还是有几个问题亟待解决的:

主节点挂了能否自动切换连接?目前需要手工切换。主节点的写压力过大如何解决?从节点每个上面的数据都是对数据库全量拷贝,从节点压力会不会过大?就算对从节点路由实施路由访问策略能否做到自动扩展?

解决这几个问题就要靠下面介绍的副本集模式了。

副本模式

***官方已经不建议使用主从模式了,替代方案是采用副本集的模式,那什么是副本集呢?简单地说,副本集就是有自动故障恢复功能的主从集群,或者说主从模式其实就是一个单副本的应用,没有很好的扩展性和容错性。而副本集具有多个副本保证了容错性,就算一个副本挂掉了还有很多副本存在,更棒的是副本集很多地方都是自动化的,它为你做了很多管理工作。聪明的读者已经发现,主从模式的***个问题手工切换已经得到解决了,难怪***官方强烈推荐使用这种模式。我们来看看***副本集的架构图:

由图可以看到客户端连接到整个副本集,不关心具体哪一台机器是否挂掉。主服务器负责整个副本集的读写,副本集定期同步数据备份,一旦主节点挂掉,副本节点就会选举一个新的主服务器,这一切对于应用服务器不需要关心。我们看一下主服务器挂掉后的架构:

副本集中的副本节点通过心跳机制检测到主节点挂掉后,就会在集群内发起主节点的选举机制,自动选举一位新的主服务器。So Cool!让我们赶紧来部署一下!

官方推荐的副本集机器数量为至少3个(官方说副本集数量***是奇数),那我们也按照这个数量配置测试。

1. 准备三台机器 10.43.159.56、 10.43.159.58、10.43.159.60。10.43.159.56当作副本集主节点,10.43.159.58、10.43.159.60作为副本集副本节点。

2. 分别在每台机器上建立***副本集测试文件夹

3. 下载安装***的安装程序包

4. 分别在每台机器上启动***

给你的副本集取个名字吧,比如这里叫test:

/data/***test/***-linux-x86_64-2.4.8/bin/mongod  --dbpath /data/***test/replset/data   --replSet test

从日志可以看出副本集还没有初始化。

5. 初始化副本集

在三台机器上任意一台机器登陆***:

/data/***test/***-linux-x86_64-2.4.8/bin/mongo

使用admin数据库:

use admin

定义副本集配置变量,这里的 _id:”test” 和上面命令参数“ –replSet test” 要保持一致:

config = { _id:"test", members:[  ... {_id:0,host:" 10.43.159.56:27017"},  ... {_id:1,host:" 10.43.159.58:27017"},  ... {_id:2,host:" 10.43.159.60:27017"}]  ... }

初始化副本集配置:

rs.initiate(config);

输出成功:

查看日志,副本集启动成功后,56为主节点PRIMARY,58、60为副本节点SECONDARY,注意这里是三个节点共同选举出的主节点,有一定随机性。

查看集群节点的状态:

rs.status();

整个副本集已经搭建成功了。是不是超级简单?

副本集模式的***不仅搭建简单,而且功能强大。现在回头看看这种模式能否解决我们前面遗留的问题:主节点挂了能否自动切换连接?

先测试副本集数据复制功能是否正常

首先在主节点56上插入数据,然后再副本节点上查看数据,发现日志报错:

error: { "$err" : "not master and slaveOk=false", "code" : 13435 } at src/mongo/shell/query.js:128

这是因为默认只从主节点读写数据,副本不允许读,只要设置副本可以读即可。在副本节点上执行:rs.slaveOk(),然后查询数据,发现主节点的数据已经同步过来了。

再测试下副本集的故障转移功能

先停掉主节点56上的进程,可以看到58和60节点上的日志显示的就是投票过程。再执行rs.status()可以看到集群状态更新了,56为不可达,58成为主节点,60还是副本。再启动56节点,发现还是58为主节点,56变为副本节点。这样就解决了***个故障自动转移的问题。

那么,对于主节点读写压力过大,如何解决呢?常见的解决方案是读写分离,***副本集的读写分离如何做呢?

看图说话:

对于移动APP的场景,通常写操作远没有读操作多,所以一台主节点负责写,两台副本节点负责读。从哪个节点读,完全可以由客户端选择,数据读取参数一共有五类(Primary、PrimaryPreferred、Secondary、SecondaryPreferred、Nearest):

Primary:默认参数,只从主节点上进行读取操作; PrimaryPreferred:大部分从主节点上读取数据,只有主节点不可用时从Secondary节点读取数据。 Secondary:只从Secondary节点上进行读取操作,存在的问题是Secondary节点的数据会比Primary节点数据“旧”。 SecondaryPreferred:优先从Secondary节点进行读取操作,Secondary节点不可用时从主节点读取数据; Nearest:不管是主节点、Secondary节点,从网络延迟***的节点上读取数据。

典型的副本集组网中,除了有副本节点,还有其他角色,比如仲裁节点,如下图:

其中的仲裁节点不存储数据,只是负责故障转移的群体投票,这样就少了数据复制的压力。此外还有Secondary-Only、Hidden、Delayed、Non-Voting等角色。

Secondary-Only:不能成为Primary节点,只能作为Secondary副本节点,防止一些性能不高的节点成为主节点。

Hidden:这类节点是不能够被客户端制定IP引用,也不能被设置为主节点,但是可以投票,一般用于备份数据。

Delayed:可以指定一个时间延迟从Primary节点同步数据。主要用于备份数据,如果实时同步,误删除数据马上同步到从节点,恢复又恢复不了。

Non-Voting:没有选举权的Secondary节点,纯粹的备份数据节点。

总结及思考

到此整个***副本集搞定了两个问题:

主节点挂了能否自动切换连接?    //咱用副本集主节点的读写压力过大如何解决? //读写分离

还有两个问题待后续解决:

从节点每个上面的数据都是对数据库全量拷贝,从节点压力会不会过大?如果数据压力大到机器支撑不了的时候能否做到自动扩展?

这个可以通过***的分片功能来解决,我们下次再说。Bye Bye!

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:如何在数据库中查找和消除重复的数据?
下一篇:关系型数据库RDBMS的旧与新 -- 谈谈NewSQL
相关文章