前言
在MongoDB(版本 3.2.9)中,分片集群(sharded cluster)是一种水平扩展数据库系统性能的方法,能够将数据集分布式存储在不同的分片(shard)上,每个分片只保存数据集的一部分,MongoDB保证各个分片之间不会有重复的数据,所有分片保存的数据之和就是完整的数据集。分片集群将数据集分布式存储,能够将负载分摊到多个分片上,每个分片只负责读写一部分数据,充分利用了各个shard的系统资源,提高数据库系统的吞吐量。
数据集被拆分成数据块(chunk),每个数据块包含多个doc,数据块分布式存储在分片集群中。MongoDB负责追踪数据块在shard上的分布信息,每个分片存储哪些数据块,叫做分片的元数据,保存在config server上的数据库 config中,一般使用3台config server,所有config server中的config数据库必须完全相同。通过mongos能够直接访问数据库config,查看分片的元数据;mongo shell 提供 sh 辅助函数,能够安全地查看分片集群的元数据信息。
对任何一个shard进行查询,只会获取collection在当前分片上的数据子集,不是整个数据集。Application 只需要连接到mongos,对其进行的读写操作,mongos自动将读写请求路由到相应的shard。MongoDB通过mongos将分片的底层实现对Application透明,在Application看来,访问的是整个数据集。
一,主分片
在分片集群中,不是每个集合都会分布式存储,只有使用sh.shardCollection()显式将collection分片后,该集合才会分布式存储在不同的shard中。对于非分片集合(un-sharded collection),其数据只会存储在主分片(Primary shard)中,默认情况下,主分片是指数据库最初创建的shard,用于存储该数据库中非分片集合的数据。每个数据库都有一个主分片。
Each database in a sharded cluster has a primary shard that holds all the un-sharded collections for that database. Each database has its own primary shard.
例如,一个分片集群有三个分片:shard1,shard2,shard3,在分片shard1创建一个数据库blog。如果将数据库bolg分片,那么MongoDB会自动在shard2,shard3上创建一个结构相同的数据库blog,数据库blog的Primary Shard是Shard1。
图示,Collection2的主分片是ShardA。
使用 movePrimary
命令变更数据库默认的Primary shard,非分片集合将会从当前shard移动到新的主分片。
1
|
db.runCommand( { movePrimary : "test" , to : "shard0001" } ) |
在使用movePrimary命令变更数据库的主分片之后,config server中的配置信息是最新的,mongos缓存的配置信息变得过时了。MongoDB提供命令:flushRouterConfig 强制mongos从config server获取最新的配置信息,刷新mongos的缓存。
1
|
db.adminCommand({ "flushRouterConfig" :1}) |
二,分片的元数据
不要直接到config server上查看分片集群的元数据信息,这些数据非常重要,安全的方式是通过mongos连接到config数据查看,或者使用sh辅助函数查看。
使用sh辅助函数查看
1
|
sh.status() |
连接到mongos查看config数据库中的集合
1
|
mongos> use config |
1,shards 集合保存分片信息
1
|
db.shards.find() |
shard的数据存储在host指定的 replica set 或 standalone mongod中。
1
2
3
4
5
|
{ "_id" : "shard_name" , "host" : "replica_set_name/host:port" , "tag" :[shard_tag1,shard_tag2] } |
2,databases集合保存分片集群中所有数据库的信息,不管数据库是否分片
1
|
db.databases.find() |
如果在数据库上执行sh.enableSharding(“db_name”)
,那么字段partitioned字段值就是true;primary 字段指定数据库的主分片(primary shard)。
1
2
3
4
5
|
{ "_id" : "test" , "primary" : "rs0" , "partitioned" : true } |
3,collections集合保存所有已分片集合的信息,不包括非分片集合(un-sharded collections)
key是:分片的片键
1
2
3
4
5
6
7
8
9
10
11
12
|
db.collections.find() { "_id" : "test.foo" , "lastmodEpoch" : ObjectId( "57dcd4899bd7f7111ec15f16" ), "lastmod" : ISODate( "1970-02-19T17:02:47.296Z" ), "dropped" : false , "key" : { "_id" : 1 }, "unique" : true } |
4,chunks 集合保存数据块信息,
ns:分片的集合,结构是:db_name.collection_name
min 和 max: 片键的最小值和最大值
shard:块所在的分片
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
db.chunks.find() { "_id" : "test.foo-_id_MinKey" , "lastmod" : Timestamp (1, 1), "lastmodEpoch" : ObjectId( "57dcd4899bd7f7111ec15f16" ), "ns" : "test.foo" , "min" : { "_id" : 1 }, "max" : { "_id" : 3087 }, "shard" : "rs0" } |
5,changelog集合记录分片集群的操作,包括chunk的拆分和迁移操作,Shard的增加或删除操作
what 字段:表示操作的类型,例如:multi-split表示chunk的拆分,
1
2
3
4
|
"what" : "addShard" , "what" : "shardCollection.start" , "what" : "shardCollection.end" , "what" : "multi-split" , |
6,tags 记录shard的tag和对应的片键范围
1
2
3
4
5
6
7
|
{ "_id" : { "ns" : "records.users" , "min" : { "zipcode" : "10001" } }, "ns" : "records.users" , "min" : { "zipcode" : "10001" }, "max" : { "zipcode" : "10281" }, "tag" : "NYC" } |
7,settings 集合记录均衡器状态和chunk的大小,默认的chunk size是64MB。
1
2
|
{ "_id" : "chunksize" , "value" : 64 } { "_id" : "balancer" , "stopped" : false } |
8,locks 集合记录分布锁(distributed lock),保证只有一个mongos 实例能够在分片集群中执行管理任务。
mongos在担任balancer时,会获取一个分布锁,并向config.locks中插入一条doc。
The locks collection stores a distributed lock. This ensures that only one mongos instance can perform administrative tasks on the cluster at once. The mongos acting as balancer takes a lock by inserting a document resembling the following into the locks collection.
1
2
3
4
5
6
7
8
9
|
{ "_id" : "balancer" , "process" : "example.net:40000:1350402818:16807" , "state" : 2, "ts" : ObjectId( "507daeedf40e1879df62e5f3" ), "when" : ISODate( "2012-10-16T19:01:01.593Z" ), "who" : "example.net:40000:1350402818:16807:Balancer:282475249" , "why" : "doing balance round" } |
三,删除分片
删除分片时,必须确保该分片上的数据被移动到其他分片中,对于以分片的集合,使用均衡器来迁移数据块,对于非分片的集合,必须修改集合的主分片。
1,删除已分片的集合数据
step1,保证均衡器是开启的
1
|
sh.setBalancerState( true ); |
step2,将已分片的集合全部迁移到其他分片
1
2
|
use admin db.adminCommand({ "removeShard" : "shard_name" }) |
removeShard命令会将数据块从当前分片上迁移到其他分片上去,如果分片上的数据块比较多,迁移过程可能耗时很长。
step3,检查数据块迁移的状态
1
2
|
use admin db.runCommand( { removeShard: "shard_name" } ) |
使用removeShard
命令能够查看数据块迁移的状态,remaining 字段表示剩余数据块的数量
1
2
3
4
5
6
7
8
9
|
{ "msg" : "draining ongoing" , "state" : "ongoing" , "remaining" : { "chunks" : 42, "dbs" : 1 }, "ok" : 1 } |
step4,数据块完成迁移
1
2
3
4
5
6
7
8
9
|
use admin db.runCommand( { removeShard: "shard_name" } ) { "msg" : "removeshard completed successfully" , "state" : "completed" , "shard" : "shard_name" , "ok" : 1 } |
2,删除未分片的数据库
step1,查看未分片的数据库
未分片的数据库,包括两部分:
1、数据库未被分片,该数据没有使用sh.enableSharding(“db_name”)
,在数据库config中,该数据库的partitioned字段是false
2、数据库中存在collection未被分片,即当前的分片是该集合的主分片
1
2
|
use config db.databases.find({$ or :[{ "partitioned" : false },{ "primary" : "shard_name" }]}) |
对于partitioned=false
的数据库,其数据全部保存在当前shard中;对于partitioned=true,primary=”shard_name“的数据库,表示存在未分片(un-sharded collection)存储在该数据库中,必须变更这些集合的主分片。
step2,修改数据库的主分片
1
|
db.runCommand( { movePrimary: "db_name" , to : "new_shard" }) |
四,增加分片
由于分片存储的是数据集的一部分,为了保证数据的高可用性,推荐使用Replica Set作为shard,即使Replica Set中只包含一个成员。连接到mongos,使用sh辅助函数增加分片。
1
|
sh.addShard( "replica_set_name/host:port" ) |
不推荐将standalone mongod作为shard
1
|
sh.addShard( "host:port" ) |
五,特大块
在有些情况下,chunk会持续增长,超出chunk size的限制,成为特大块(jumbo chunk),出现特大块的原因是chunk中的所有doc使用同一个片键(shard key),导致MongoDB无法拆分该chunk,如果该chunk持续增长,将会导致chunk的分布不均匀,成为性能瓶颈。
在chunk迁移时,存在限制:每个chunk的大小不能超过2.5万条doc,或者1.3倍于配置值。chunk size默认的配置值是64MB,超过限制的chunk会被MongoDB标记为特大块(jumbo chunk),MongoDB不能将特大块迁移到其他shard上。
MongoDB cannot move a chunk if the number of documents in the chunk exceeds either 250000 documents or 1.3 times the result of dividing the configured chunk size by the average document size.
1,查看特大块
使用sh.status(),能够发现特大块,特大块的后面存在 jumbo 标志
1
|
{ "x" : 2 } -->> { "x" : 3 } on : shard-a Timestamp(2, 2) jumbo |
2,分发特大块
特大块不能拆分,不能通过均衡器自动分发,必须手动分发。
step1,关闭均衡器
1
|
sh.setBalancerState( false ) |
step2,增大Chunk Size的配置值
由于MongoDB不允许移动大小超出限制的特大块,因此,必须临时增加chunk size的配置值,再将特大块均衡地分发到分片集群中。
1
2
|
use config db.settings.save({ "_id" : "chunksize" , "value" : "1024" }) |
step3,移动特大块
1
|
sh.moveChunk( "db_name.collection_name" ,{sharded_filed: "value_in_chunk" }, "new_shard_name" ) |
step4,启用均衡器
1
|
sh.setBalancerState( true ) |
step5,刷新mongos的配置缓存
强制mongos从config server同步配置信息,并刷新缓存。
1
2
|
use admin db.adminCommand({ flushRouterConfig: 1 } ) |
六,均衡器
均衡器是由mongos转变的,就是说,mongos不仅负责将查询路由到相应的shard上,还要负责数据块的均衡。一般情况下,MongoDB会自动处理数据均衡,通过config.settings
能够查看balancer的状态,或通过sh辅助函数查看
1
|
sh.getBalancerState() |
返回true,表示均衡器在正运行,系统自动处理数据均衡,使用sh辅助函数能够关闭balancer
1
|
sh.setBalancerState( false ) |
balancer不能立即终止正在运行的块迁移操作,在mongos转变为balancer时,会申请一个balancer lock,查看config.locks
集合,
1
2
3
4
5
|
use config db.locks.find({ "_id" : "balancer" }) --or sh.isBalancerRunning() |
如果state=2,表示balancer正处于活跃状态,如果state=0,表示balancer已被关闭。
均衡过程实际上是将数据块从一个shard迁移到其他shard,或者先将一个大的chunk拆分小的chunk,再将小块迁移到其他shard上,块的迁移和拆分都会增加系统的IO负载,最好将均衡器的活跃时间限制在系统空闲时进行,可以设置balancer的活跃时间窗口,限制balancer在指定的时间区间内进行数据块的拆分和迁移操作。
1
2
3
4
5
6
7
|
use config db.settings. update ( { "_id" : "balancer" }, "$set" :{ "activeWindow" :{ "start" : "23:00" , "stop" : "04:00" }}), true ) |
均衡器拆分和移动的对象是chunk,均衡器只保证chunk数量在各个shard上是均衡的,至于每个chunk包含的doc数量,并不一定是均衡的。可能存在一些chunk包含的doc数量很多,而有些chunk包含的doc数量很少,甚至不包含任何doc。因此,应该慎重选择分片的索引键,即片键,如果一个字段既能满足绝大多数查询的需求,又能使doc数量均匀分布,那么该字段是片键的最佳选择。
总结
以上就是这篇文章的全部内容,希望对大家的学习或者工作带来一定的帮助,如果有疑问的大家可以留言交流。