|
关于MongoDB,我们能看到的资料,基本都是在指导大家如何使用MongoDB,但是,MongoDB内部是如何运作的,资料不是很多。- c% U/ g5 J+ z$ [
: [" i5 F( ]0 h' x
阅读使用手册,会有很多疑惑之处。例如,有人说,MongoDB 等同于分布式的 MySQL。它把一个Table ,按 row,分割成多个Shards,分别存放在不同的 Servers 上。这种说法是否正确?
: g7 Q* w) R& e, k- p5 s
+ @# t1 T4 o: Q: s! A- @6 A 不深入了解 MongoDB 的内部结构,就无法透彻地回答类似问题。这个系列文章,就来和大家探讨MongoDB的内部的工作方式。
. P; b) q. [! B, ^# R
d( P) ?: Y' p7 l+ R" N
9 X2 Z. W4 S: D9 @ T
+ M( R. j4 X0 l- `: L5 ^9 Y图1-1 MongoDB架构图
- ?- \) \1 `# f6 T
8 e* r# Q. |) G; T) v' y MongoDB 通常运行在一个服务器集群上,而不是一个单机。图1-1,描述了一个MongoDB集群的基本组成部分,包括若干shards,至少一个config server,至少一个routing servers(又称 mongos)。3 F& k9 `, X w! f6 k6 @
6 r9 ?4 G7 b j) b$ ?- Y/ OShards
# r! ^- X7 S4 i) t; G, I
) P4 B) p8 V U j9 j) P MongoDB的最基本的数据单元,叫document,类似于关系式数据库中的行 row。一系列documents,组成了一个collection,相当于关系式数据库中的table。当一个 collection 数据量太大时,可以把该collection按documents切分,分成多个数据块,每个数据块叫做一个chunk,多个chunks聚集在一起,组成了一个shard。7 s, s) P- Z) V: c4 Q. L* S4 x1 e5 u
* S2 s# W7 x. p+ y2 Z$ i
Sharding 的意义,不仅保障了数据库的扩容(scalability),同时也保障了系统的负载均衡(load balance)。! u8 d# x' ]. _& K. t
& j# G" ]! i% [1 s/ R% s3 U
每一个shard存储在一个物理服务器(server)上。Server上运行着mongod进程,通过这个进程,对shard中的数据进行操作,主要是增删改查。/ }8 o' L! T$ x, M
& G; H+ Y- C0 C 如果系统中的每个shard,只存储了一份数据,没有备份,那么当这个shard所在的server挂了,数据就丢失了。在生产环境中,为了保证数据不丢失,为了提高系统的可用性(availability),每一个shard被存储多份,每个备份所在的servers,组成了一个replica set。3 d& `# k4 `7 d# W
; b$ ~* ^: Y+ L1 k) b
Shard keys0 g: h" i" C- s$ T
- B8 M8 b7 t& e( m, C, W( o; I
为了把collection切分成不同的chunks,从而存放到不同的shards中,我们需要制定一个切分的方式。
4 l3 k/ f2 B$ n4 D
: `: ?* @$ y2 q* {0 q 如前所述,在 MongoDB 数据库中,一个表collection由多个行 documents 组成,而每个 document,有多个属性 fields。同一个 collection 中的不同的 documents,可能会有不同的 fields。例如,有个 collection 叫 Media,包含两条 documents,9 r) _1 {8 s1 ?$ d c4 }5 Z, C: B! q& o
* |% {8 P6 d3 m$ M1 x4 s% H
{
9 v U3 J3 K# E! O9 ~" f$ f "ISBN": "987-30-3652-5130-82", Y/ W. v8 ]; q4 @9 `
"Type": "CD",+ ^1 E/ I# P7 N& ?
"Author": "Nirvana",
8 w; P3 h3 Y/ B2 h9 _& s "Title": "Nevermind",
, |/ [5 `: ]1 z" n0 `* n1 ^ "Genre": "Grunge",
! ^ b% D4 p1 F1 E- L8 V: @ "Releasedate": "1991.09.24",
, J/ |" T& g% ?$ z "Tracklist": [
$ ?8 i9 i& V( {; _" H2 P+ d {/ q, `% }9 D7 R/ Z0 H8 l( t
"Track" : "1",
5 B! j/ W0 Z: y4 Z+ V1 ] "Title" : "Smells like teen spirit",
( H0 O6 ]& c8 A+ S+ |7 q c1 ] "Length" : "5:02"
) Y$ J' s: y) m },0 f1 T& U# Z/ Q7 K
{
+ z. `# `1 u, c& Y9 O "Track" : "2",
$ j1 N* \2 @- t0 W "Title" : "In Bloom",+ A. j7 p: t0 g6 Y1 I1 P% R( R
"Length" : "4:15"
, |( Z( x) k! C( \& z }
' \ U0 f1 r$ i3 C! K3 { ]
Z" b2 D6 y0 |# j}
: N8 v& V/ l% s6 z- U) ^* b, A7 p2 v/ d1 [) @) B5 H1 Y
{
% K% c- C8 S# H$ ^3 C! U "ISBN": "987-1-4302-3051-9",0 h; H- l/ M2 N& V- d1 A
"Type": "Book",
) B+ v8 z2 P1 S$ r! ~$ u "Title": "Definite Guide to MongoDB: The NoSQL Database",
9 m, K+ h7 V3 i6 y# [% _$ ?8 G4 { "Publisher": "Apress",. M# B4 X/ Z; x( Y/ g) P
"Author": " Eelco Plugge",& s [( O( `: _+ U! g8 W; u- ]
"Releasedate": "2011.06.09"% {7 P) F. p8 e1 q) n0 v
}
1 k% e- I4 N7 Q9 l# W. |- B/ ~, K1 J7 ]: B7 V7 \' a
假如,在同一个 collection 中的所有 document,都包含某个共同的 field,例如前例中的“ISBN”,那么我们就可以按照这个 field 的值,来分割 collection。这个 field 的值,又称为 shard key。# q9 k4 o1 |1 Y
$ s: i- [$ T# m/ r5 I- ]! A 在选择shard key的时候,一定要确保这个key能够把collection均匀地切分成很多chunks。" J" ?9 x2 X7 G; Z" m
0 |+ K" D+ k6 M8 Y7 v, S: U! J 例如,如果我们选择“author”作为shard key,如果有大量的作者是重名的,那么就会有大量的数据聚集在同一个chunk中。当然,假设很少有作者同名同姓,那么“author”也可以作为一个shard key。换句话说,shard key 的选择,与使用场景密切相关。$ h5 k$ i5 l, G) k/ u* P
5 w0 m! ?6 q" m5 N
很多情况下,无论选择哪一个单一的 field 作为shard key,都无法均匀分割 collection。在这种情况下,我们可以考虑,用多个 fields,构成一个复合的shard key。& O& [( ?0 s& q0 h; e
/ ~% r0 d4 k5 E
延续前例,假如有很多作者同名同姓,他们都叫“王二”。用 author 作为 shard key,显然无法均匀切割 collection。这时我们可以加上release-date,组成name-date的复合 shard key,例如“王二 2011”。
! _6 v; o6 _- g: A; v: ~; }2 D9 S1 [8 v
Chunks5 M6 a6 Q- J# k$ |6 m3 L+ l5 ?/ I
4 F X/ Y1 y$ r( q
MongoDB按 shard key,把 collection切割成若干 chunks。每个 chunk 的数据结构,是一个三元组,{collection,minKey,maxKey},如图1-2 所示。
! K, P4 D4 \7 {' h$ I q
+ X# d2 b( q/ r) \2 [
0 u* F) f; \8 T, k7 c图1-2 chunk的三元组 U8 Y9 ]7 M4 u# a {7 F/ O$ D
7 R# s t6 g9 g h; r
其中,collection 是数据库中某一个表的名称,而 minKey 和 maxKey 是 shard key的范围。每一个 document 的shard key 的值,决定了这条document应该存放在哪个chunk中。
. }- A! c& P4 _1 M2 O" @' b, H+ ?
3 z( e. g7 M- E8 B 如果两条 documents 的 shard keys 的值很接近,这两条 documents 很可能被存放在同一个 chunk 中。
[7 M3 Z( P3 t9 x
8 z5 [ T& |( ~# l7 Q& o- K; } Shard key 的值的顺序,决定了 document 存放的 chunk。在 MongoDB 的文献中,这种切割 collection 的方式,称为order-preserving。* O4 _- E$ b' R8 @/ V" F/ F
5 K! y) _* A3 j7 ]( u: f1 L% x 一个 chunk最多能够存储64MB的数据。 当某个chunk存储的 documents包含的数据量,接近这个阈值时,一个chunk会被切分成两个新的chunks。* W* |5 l, w/ @9 \6 i" f3 Y. \
" z6 A0 T4 p, ^% m' k. z 当一个shard存储了过多的chunks,这个shard中的某些chunks会被迁移到其它 shard中。- B4 J4 P# Y$ W; A! I- x7 @
1 k" Y6 c- A- T q0 F
这里有个问题,假如某一条 document 包含的数据量很大,超过 64MB,一个 chunk 存放不下,怎么办?在后续章节介绍 GridFS 时,我们会详细讨论。5 _& E/ P, V) K1 ^. \
9 F3 W1 I" D7 s5 k2 q& OReplica set9 l4 y5 X+ w* H/ c8 n) m2 K
# }1 A5 ~0 x6 M: H9 T5 R
在生产环境中,为了保证数据不丢失,为了提高系统的可用性(availability),每一个shard被存储多份,每个备份所在的servers,组成了一个replica set。
3 V; ?2 s/ G# ?) k4 f' C' R* b$ d9 x; y$ Q1 n7 }
这个replica set包括一个primary DB和多个secondary DBs。为了数据的一致性,所有的修改(insert / update / deletes) 请求都交给primary处理。处理结束之后,再异步地备份到其他secondary中。5 W3 S: \9 I% Z. ~
3 l+ W3 S+ g7 `7 p2 { M1 b Primary DB由replica set中的所有servers,共同选举产生。当这个primaryDB server出错的时候,可以从replica set中重新选举一个新的primaryDB,从而避免了单点故障。" k: {* o* W6 x8 e: H6 W
% j( X/ x: R- U5 q$ e. c) z
Replica set的选举策略和数据同步机制,确保了系统的数据的一致性。后文详述。4 s% ?9 d- A6 q0 H" f
/ ^! x9 }% x" J j+ U$ yConfig Server; i& n6 f" M( D
; b, ]6 m& r& |# I' L Config servers用于存储MongoDB集群的元数据 metadata,这些元数据包括如下两个部分,每一个shard server包括哪些chunks,每个chunk存储了哪些 collections 的哪些 documents。' p" G! W( q2 k4 ~0 s8 F: A
/ l( N; \, k2 R* d. g: Q( X5 i! K
每一个config server都包括了MongoDB中所有chunk的信息。
3 f! N. g% q& G4 l. x0 e
8 E% n( i+ x0 G0 N Config server也需要 replication。但是有趣的是,config server 采用了自己独特的replication模式,而没有沿用 replica set。0 z- Y- |: _8 z: T. x
( V7 p2 X, D9 n
如果任何一台config server挂了,整个 config server 集群中,其它 config server变成只读状态。这样做的原因,是避免在系统不稳定的情况下,冒然对元数据做任何改动,导致在不同的 config servers 中,出现元数据不一致的情况。
( l9 l4 j& J4 w+ o6 |- n5 Z T: X* {+ {4 ?: Z) W8 x" d
MongoDB的官方文档建议,配置3个config servers比较合适,既提供了足够的安全性,又避免了更多的config servers实例之间的数据同步,引起的元数据不一致的麻烦。
9 L" d3 U& \; j- N! _# Y. J, { @' x' X4 r: ~7 T
Mongos
( ?: J2 |! {9 y$ B4 Y; C0 z6 n% R5 j( h# i) ?* c E* W+ A- e0 X6 E
用户使用MongoDB 时,用户的操作请求,全部由mongos来转发。- r$ W1 O9 r* r8 K6 j" z1 v% D
& O$ _- Q; B, s" G, i; j
当 mongos 接收到用户请求时,它先查询 config server,找到存放相应数据的shard servers。然后把用户请求,转发到这些 shard servers。当这些 shard servers完成操作后,它们把结果分别返回给 mongos。而当 mongos 汇总了所有的结果后,它把结果返回给用户。! M* N) T ]4 y, t8 A; H8 Y
) |9 D* ^9 |1 L. M# O0 j' i Mongos每次启动的时候,都要到config servers中读取元数据,并缓存在本地。每当 config server中的元数据有改动,它都会通知所有的mongos。
$ c6 S8 n% b7 c
3 Q/ l9 A3 k: f x' k8 h Mongos之间,不存在彼此协同工作的问题。因此,MongoDB所需要配置的mongos server的数量,没有限制。6 U+ `2 O9 B$ X
2 b0 A9 b- v5 f, e
通过以上的介绍,我们对每个组成部分都有了基本的了解,但是涉及到工作的细节,我们尚有诸多疑问,例如,一个chunk的数据太大,如何切分?一个shard数据太多,如何迁移?在replica set中,如何选择primary?server挂了,怎么进行故障恢复?接下来的章节,我们逐个回答这些问题。 t6 ?, |: v S( K5 P
$ u W% X4 t- m2 w; @6 l& x' e
# f: Q% ]7 m! z
Reference,
: m/ X" {+ V. h x+ Q( ]( u2 J4 f$ ^9 {8 B- G
[0] Architectural Overview! q+ y% Y4 a4 ^6 Q7 b* Q
http://www.mongodb.org/display/DOCS/Sharding+Introduction
, a1 y7 b& v4 a7 q. Q |
评分
-
查看全部评分
|