|
关于MongoDB,我们能看到的资料,基本都是在指导大家如何使用MongoDB,但是,MongoDB内部是如何运作的,资料不是很多。
* D$ ^0 J- B4 v9 J8 h$ L8 T( Y1 C5 Z
阅读使用手册,会有很多疑惑之处。例如,有人说,MongoDB 等同于分布式的 MySQL。它把一个Table ,按 row,分割成多个Shards,分别存放在不同的 Servers 上。这种说法是否正确?: |, L, {1 g3 B$ Y' O1 ?! d+ l3 p }
9 s k, c. R5 b! Q1 B* u! n 不深入了解 MongoDB 的内部结构,就无法透彻地回答类似问题。这个系列文章,就来和大家探讨MongoDB的内部的工作方式。, l/ d2 W& t8 M' z% j; b& U! M
* Z! i. Q/ M* p; G
" v8 x" n0 E0 C: I! `2 ]
5 r# o* d. L$ \4 b# w7 O图1-1 MongoDB架构图 . R! z) O1 n4 e. n. ~: w; t
, v% Q Q1 Q) o
MongoDB 通常运行在一个服务器集群上,而不是一个单机。图1-1,描述了一个MongoDB集群的基本组成部分,包括若干shards,至少一个config server,至少一个routing servers(又称 mongos)。
/ [, D) N3 ]% I" a4 R
+ O" V7 o( _: U& q4 f1 MShards
. K* k9 z% k# n+ O, p2 O: h* j& K0 a ~# W6 I; d
MongoDB的最基本的数据单元,叫document,类似于关系式数据库中的行 row。一系列documents,组成了一个collection,相当于关系式数据库中的table。当一个 collection 数据量太大时,可以把该collection按documents切分,分成多个数据块,每个数据块叫做一个chunk,多个chunks聚集在一起,组成了一个shard。
! ]9 ]" K# k# x6 w9 h6 s! D" C) [. C
Sharding 的意义,不仅保障了数据库的扩容(scalability),同时也保障了系统的负载均衡(load balance)。
$ n. w& m) [& _% O6 T7 _8 H% {* X/ e) J# \" Q l
每一个shard存储在一个物理服务器(server)上。Server上运行着mongod进程,通过这个进程,对shard中的数据进行操作,主要是增删改查。7 o# T4 i$ t' a0 x3 b l. g
. q2 m4 E- r+ k! [, X7 z 如果系统中的每个shard,只存储了一份数据,没有备份,那么当这个shard所在的server挂了,数据就丢失了。在生产环境中,为了保证数据不丢失,为了提高系统的可用性(availability),每一个shard被存储多份,每个备份所在的servers,组成了一个replica set。
' M8 S" o7 N9 ?+ V S& z4 n1 J' t+ K! }+ _
Shard keys
. `2 c0 T) `5 T6 \
! [" X' {8 R7 |/ D 为了把collection切分成不同的chunks,从而存放到不同的shards中,我们需要制定一个切分的方式。
7 J* u# l6 r3 T, {7 t* H# B v# i0 j! y% b1 X* ~
如前所述,在 MongoDB 数据库中,一个表collection由多个行 documents 组成,而每个 document,有多个属性 fields。同一个 collection 中的不同的 documents,可能会有不同的 fields。例如,有个 collection 叫 Media,包含两条 documents,8 ]; i9 L9 V3 u& J' k; Y/ w& @$ Q
* m/ V7 M! K5 t{5 |1 Y2 z, E8 V! |% n. A% y( u
"ISBN": "987-30-3652-5130-82",% H: @1 g4 ]- j4 _
"Type": "CD",* l: }, p3 l$ Q7 t: a" p# `( s
"Author": "Nirvana",$ v! l$ Y. J: a9 f
"Title": "Nevermind",' ~' y' m: \ \0 ^; o+ y
"Genre": "Grunge",
) n. m" A4 e0 u1 H- [ "Releasedate": "1991.09.24",- o. y5 P d" n$ R% P
"Tracklist": [: N1 U5 s3 v7 R- O$ X$ J
{
; Z/ p. }% b8 A* B; r+ d "Track" : "1",
$ U8 w* S* z+ P: t "Title" : "Smells like teen spirit",/ E( k- Q( P9 j$ b9 X6 t0 o9 l3 v
"Length" : "5:02"; X& O5 r! J) V! a2 L6 G
},
; f) `, Q# I7 I7 h2 N6 ^2 e {
+ x- B$ A! J& h "Track" : "2",: w% l& Q1 n& s
"Title" : "In Bloom",: |3 W' [: Z5 T2 { X6 a+ P
"Length" : "4:15"
4 C* f: @4 v; ?. q }! i7 I) E0 y7 n: j
]
# p- O9 @* I3 @, r5 q- O) ?* D9 I6 w}; H/ g9 U$ ^: V1 ~! f8 `9 y
' w* {! W- U( |# X{
0 m& i9 u2 U- _" A4 n "ISBN": "987-1-4302-3051-9",
% M' Z7 C, |0 Q. f- { "Type": "Book",
) h# S* I7 T, i( u" N& k "Title": "Definite Guide to MongoDB: The NoSQL Database",$ j# H- B$ u. f/ w; G% R, u( S
"Publisher": "Apress",
4 L$ D3 G8 A5 v ]" }$ b% _ "Author": " Eelco Plugge",
) z( p/ A5 z8 ]( y' p, I "Releasedate": "2011.06.09"# ^; i/ u' k* S! ?; }
}
1 l2 _1 @. N- @6 f" F7 c; N3 \3 o! M6 {" a7 V8 r: s5 h. ?
假如,在同一个 collection 中的所有 document,都包含某个共同的 field,例如前例中的“ISBN”,那么我们就可以按照这个 field 的值,来分割 collection。这个 field 的值,又称为 shard key。* Y3 F5 a7 Q- ^& Q1 S! i, M" U1 N
9 I6 ?/ l2 D; ?
在选择shard key的时候,一定要确保这个key能够把collection均匀地切分成很多chunks。
9 o6 t$ m4 m7 i; |: A; Z& ^8 Y4 N: x" F/ A4 Y& [, N6 x
例如,如果我们选择“author”作为shard key,如果有大量的作者是重名的,那么就会有大量的数据聚集在同一个chunk中。当然,假设很少有作者同名同姓,那么“author”也可以作为一个shard key。换句话说,shard key 的选择,与使用场景密切相关。5 K+ u! S9 H$ d; n
/ p' x( w5 J2 [7 v* @
很多情况下,无论选择哪一个单一的 field 作为shard key,都无法均匀分割 collection。在这种情况下,我们可以考虑,用多个 fields,构成一个复合的shard key。
& J. G+ \& ?" }9 p/ i- ?- o1 m* J. \ N5 ?# c- n3 ^: }
延续前例,假如有很多作者同名同姓,他们都叫“王二”。用 author 作为 shard key,显然无法均匀切割 collection。这时我们可以加上release-date,组成name-date的复合 shard key,例如“王二 2011”。
/ x; M6 [( V9 H- o% e- \3 l1 p+ J
Chunks5 }/ n. ]) B/ P
4 x8 J* T" ~0 p/ W MongoDB按 shard key,把 collection切割成若干 chunks。每个 chunk 的数据结构,是一个三元组,{collection,minKey,maxKey},如图1-2 所示。
- k4 V4 q ~0 M5 [2 v" f( n
5 T8 J+ h8 n4 w+ j7 E0 x! N/ R( V
8 c+ Y5 m8 O- e: k+ ]6 ?) R3 D
图1-2 chunk的三元组 6 |( s3 a" `) t) ?
6 N$ i9 j @0 Q
其中,collection 是数据库中某一个表的名称,而 minKey 和 maxKey 是 shard key的范围。每一个 document 的shard key 的值,决定了这条document应该存放在哪个chunk中。
' n/ L1 [) R" q I/ M5 `% a# k k% m
如果两条 documents 的 shard keys 的值很接近,这两条 documents 很可能被存放在同一个 chunk 中。
9 G5 B; h, R! E2 P" @
6 M# b# M4 v4 d7 b; R s7 L! d Shard key 的值的顺序,决定了 document 存放的 chunk。在 MongoDB 的文献中,这种切割 collection 的方式,称为order-preserving。3 j3 b+ ~. h3 t! |; }: m
( j( y6 K7 t/ P4 Z( H2 Q! x: P; q 一个 chunk最多能够存储64MB的数据。 当某个chunk存储的 documents包含的数据量,接近这个阈值时,一个chunk会被切分成两个新的chunks。
+ l8 t8 u; {# O2 t$ L1 t5 m; Z! C7 n: l; P5 m3 P
当一个shard存储了过多的chunks,这个shard中的某些chunks会被迁移到其它 shard中。
/ p9 ~# M% d+ e$ I2 D; [! z1 g2 B# N3 z% ?1 v2 p
这里有个问题,假如某一条 document 包含的数据量很大,超过 64MB,一个 chunk 存放不下,怎么办?在后续章节介绍 GridFS 时,我们会详细讨论。3 s' x6 @$ j" w9 A
# v. n; T( F& K k8 |0 X8 \
Replica set
7 D% F$ _! p7 H' R) w 0 p; Y( J: s Z( y) d
在生产环境中,为了保证数据不丢失,为了提高系统的可用性(availability),每一个shard被存储多份,每个备份所在的servers,组成了一个replica set。
2 l% D; ~4 ^) Y0 T! P
& y, A" _5 @) Y% ~$ ] 这个replica set包括一个primary DB和多个secondary DBs。为了数据的一致性,所有的修改(insert / update / deletes) 请求都交给primary处理。处理结束之后,再异步地备份到其他secondary中。
- \4 K, X/ l- R8 g" q8 V' U
1 {% u( N# ~* S5 [ Primary DB由replica set中的所有servers,共同选举产生。当这个primaryDB server出错的时候,可以从replica set中重新选举一个新的primaryDB,从而避免了单点故障。
; y1 I( _- { b a' l) i- w
) @/ \ e0 g/ \7 Y0 G" B4 F Replica set的选举策略和数据同步机制,确保了系统的数据的一致性。后文详述。
& B" c3 D1 R$ B! r, W, q! T
+ W& Y* e9 ]/ ]1 G+ tConfig Server
. n: E8 J! G9 Y0 c# J. s2 I4 b3 F j
. G! i0 u% G* q, @' F0 e' Z Config servers用于存储MongoDB集群的元数据 metadata,这些元数据包括如下两个部分,每一个shard server包括哪些chunks,每个chunk存储了哪些 collections 的哪些 documents。$ r# L! e; a: K* p
* v4 {. s% _) e/ i/ e 每一个config server都包括了MongoDB中所有chunk的信息。6 y' z" \$ W2 Q; R: d
5 A+ z) U+ o% k; P7 K Config server也需要 replication。但是有趣的是,config server 采用了自己独特的replication模式,而没有沿用 replica set。( x, c! h ?* h9 t. v; u8 p+ K! v' f' n
: u( p* B/ l8 V% r1 O3 g o
如果任何一台config server挂了,整个 config server 集群中,其它 config server变成只读状态。这样做的原因,是避免在系统不稳定的情况下,冒然对元数据做任何改动,导致在不同的 config servers 中,出现元数据不一致的情况。
) G& n# D- X# d" n- x2 N3 _( ^" G/ ]+ K! O7 b
MongoDB的官方文档建议,配置3个config servers比较合适,既提供了足够的安全性,又避免了更多的config servers实例之间的数据同步,引起的元数据不一致的麻烦。! r7 w/ r6 a% ?# F
5 X# p/ D1 M V9 Z8 S4 \Mongos3 J; p3 G* _$ j
2 b4 G" H8 p# c
用户使用MongoDB 时,用户的操作请求,全部由mongos来转发。; _2 v8 p9 r9 R+ [( G2 s
9 P1 O/ U! Y* h
当 mongos 接收到用户请求时,它先查询 config server,找到存放相应数据的shard servers。然后把用户请求,转发到这些 shard servers。当这些 shard servers完成操作后,它们把结果分别返回给 mongos。而当 mongos 汇总了所有的结果后,它把结果返回给用户。; [) \4 c& X& {: t
; }" N2 V6 j3 f1 P5 t. }7 E7 v Mongos每次启动的时候,都要到config servers中读取元数据,并缓存在本地。每当 config server中的元数据有改动,它都会通知所有的mongos。0 X6 G9 u" @8 j4 I d( ~) I
- y. k/ G" u- @/ A Mongos之间,不存在彼此协同工作的问题。因此,MongoDB所需要配置的mongos server的数量,没有限制。
, ?" t C Q/ B/ l- i% J3 H7 t1 d5 B6 h" j8 ]
通过以上的介绍,我们对每个组成部分都有了基本的了解,但是涉及到工作的细节,我们尚有诸多疑问,例如,一个chunk的数据太大,如何切分?一个shard数据太多,如何迁移?在replica set中,如何选择primary?server挂了,怎么进行故障恢复?接下来的章节,我们逐个回答这些问题。
2 ^' y; M! [4 F. v+ b! ` Z) u) |* `( J0 f5 N, h+ N
/ } o( D2 ]7 c% pReference,7 g5 \7 C" L! R; z. ]
) C* j4 C7 y0 J+ S: ^( a[0] Architectural Overview4 P( M& x3 _% s
http://www.mongodb.org/display/DOCS/Sharding+Introduction
# v. Q. V- D/ W |
评分
-
查看全部评分
|