|
关于MongoDB,我们能看到的资料,基本都是在指导大家如何使用MongoDB,但是,MongoDB内部是如何运作的,资料不是很多。% _. Q+ C; `5 B0 u9 g& v2 f& I
# v; j0 y& S' ]; j- L
阅读使用手册,会有很多疑惑之处。例如,有人说,MongoDB 等同于分布式的 MySQL。它把一个Table ,按 row,分割成多个Shards,分别存放在不同的 Servers 上。这种说法是否正确?( T! [( F( H% X- N. _
9 P. _. _% A% ~% z" H! B! E( V# d0 ~ 不深入了解 MongoDB 的内部结构,就无法透彻地回答类似问题。这个系列文章,就来和大家探讨MongoDB的内部的工作方式。
& }: Y* v) b' X5 q. k( ^
# V* S8 l; f. r- e& _ N$ X
+ ~+ ~# _9 T/ o$ [
5 D5 ]$ w* N6 z& j8 t. f7 H4 ~
图1-1 MongoDB架构图 " R9 _4 R1 U4 H9 p- T6 g* F
. I9 s- E2 b( [. c2 ~$ z+ w! I MongoDB 通常运行在一个服务器集群上,而不是一个单机。图1-1,描述了一个MongoDB集群的基本组成部分,包括若干shards,至少一个config server,至少一个routing servers(又称 mongos)。! i7 u9 v) i9 f- S, B" e+ o
0 W; }( L K! Z" _. O# y$ e
Shards0 W: g1 A$ O4 c% h1 n5 v, I6 E8 e
9 e. L, v( F, k" i MongoDB的最基本的数据单元,叫document,类似于关系式数据库中的行 row。一系列documents,组成了一个collection,相当于关系式数据库中的table。当一个 collection 数据量太大时,可以把该collection按documents切分,分成多个数据块,每个数据块叫做一个chunk,多个chunks聚集在一起,组成了一个shard。
- B# @6 D; B L; L) n* M3 j8 Y( X& \5 G ?
Sharding 的意义,不仅保障了数据库的扩容(scalability),同时也保障了系统的负载均衡(load balance)。8 f2 n4 ?8 @& k( x4 z/ r
: z: Z, ~1 Z( E 每一个shard存储在一个物理服务器(server)上。Server上运行着mongod进程,通过这个进程,对shard中的数据进行操作,主要是增删改查。
7 \9 X( y# D; S+ q# x8 n/ \- _; {( F0 E1 L& e
如果系统中的每个shard,只存储了一份数据,没有备份,那么当这个shard所在的server挂了,数据就丢失了。在生产环境中,为了保证数据不丢失,为了提高系统的可用性(availability),每一个shard被存储多份,每个备份所在的servers,组成了一个replica set。
" W4 @6 s( y3 H% A' U! j# `7 o4 w: b
Shard keys
5 I2 X3 l1 O% j* @ * ~# J; \+ c4 B( z: C2 ]
为了把collection切分成不同的chunks,从而存放到不同的shards中,我们需要制定一个切分的方式。
8 j4 R6 L7 V0 g
" Q! Q* T% Y: b0 X 如前所述,在 MongoDB 数据库中,一个表collection由多个行 documents 组成,而每个 document,有多个属性 fields。同一个 collection 中的不同的 documents,可能会有不同的 fields。例如,有个 collection 叫 Media,包含两条 documents,
& q$ D* p: A5 \" s% X( I3 L9 V
4 L3 q Z- O2 v6 T0 u{
0 A T3 M- H- F1 J, S "ISBN": "987-30-3652-5130-82",
# Q, r$ t6 ^& k" R% r "Type": "CD",3 K' @$ y5 J/ W# B" }
"Author": "Nirvana",* L/ t9 Y. K! K# M( b- O! y( D
"Title": "Nevermind",& ?4 j) g E" q% c! L
"Genre": "Grunge",
% D) Q& J# O+ k& c- a$ ^: F "Releasedate": "1991.09.24",& ~/ C- N4 u4 G: C- J ]0 n
"Tracklist": [
* ^" X! {0 ?1 K* ~' k: U {6 r) H9 G4 U+ i. K$ G
"Track" : "1",, @' P3 T2 O& c
"Title" : "Smells like teen spirit",
% a6 Z8 X6 N: U. q1 j5 d, |! F "Length" : "5:02"
8 p& u# e2 ?( J, e& U _ M },
) L1 a% |- S9 n: F. z {
( I8 r( E6 G! h! N* H& r "Track" : "2",
5 F% f+ K; p& M0 t3 |1 K "Title" : "In Bloom",8 t7 u; s T( `
"Length" : "4:15"6 D1 W8 \3 Y! I" p [8 ]& g% Y
}
6 ?( `6 }" G8 A ]* Z% [9 i# x$ w' g
}
9 t, |; P/ V* M( d/ y R
- \) {: z" `3 P{6 d, P3 R; \& k/ ~2 e0 e
"ISBN": "987-1-4302-3051-9",
; Y4 U% t) B. G G "Type": "Book",
% d2 O! x! Q& B$ `2 G* h# |6 h "Title": "Definite Guide to MongoDB: The NoSQL Database",7 i7 B' i. Q; X' q
"Publisher": "Apress",
5 _# d9 A) I7 ^9 {. Z' @ "Author": " Eelco Plugge",
, h9 b( s! L% ^* ?2 T6 H1 p+ t9 O "Releasedate": "2011.06.09"" n7 {: |; J r& B0 I6 W
}
6 F8 z$ C4 f0 \ f* s7 t O
* B# n4 C" H. k7 R; J 假如,在同一个 collection 中的所有 document,都包含某个共同的 field,例如前例中的“ISBN”,那么我们就可以按照这个 field 的值,来分割 collection。这个 field 的值,又称为 shard key。
X( H4 J( t& E. e6 P; a
7 ?4 D& L: r5 g) S8 B, k 在选择shard key的时候,一定要确保这个key能够把collection均匀地切分成很多chunks。
* b D' p% v6 T6 k
1 w# w! e- O. r8 ~2 ? 例如,如果我们选择“author”作为shard key,如果有大量的作者是重名的,那么就会有大量的数据聚集在同一个chunk中。当然,假设很少有作者同名同姓,那么“author”也可以作为一个shard key。换句话说,shard key 的选择,与使用场景密切相关。. Z( |' l. g# ?; D6 Q
7 Z# ?$ p& ~) c/ a
很多情况下,无论选择哪一个单一的 field 作为shard key,都无法均匀分割 collection。在这种情况下,我们可以考虑,用多个 fields,构成一个复合的shard key。* S; o' t% k' K/ h5 N
* p( I! w) ?( m" k7 Y5 G
延续前例,假如有很多作者同名同姓,他们都叫“王二”。用 author 作为 shard key,显然无法均匀切割 collection。这时我们可以加上release-date,组成name-date的复合 shard key,例如“王二 2011”。
1 e! ^5 j0 p7 k3 H4 U' C% @0 {; G) t3 ] q0 X2 U' T$ ^+ W
Chunks0 ~6 ?5 {3 O2 D A; _6 ^
0 I9 Y6 R( {8 {, ?: G MongoDB按 shard key,把 collection切割成若干 chunks。每个 chunk 的数据结构,是一个三元组,{collection,minKey,maxKey},如图1-2 所示。5 @8 v0 M: l, y4 ?
) e& s T8 W3 f
5 B) [& j* |; @' z0 B图1-2 chunk的三元组
+ o4 x' e" v# a7 \0 r: \6 v! [2 I* y+ D
其中,collection 是数据库中某一个表的名称,而 minKey 和 maxKey 是 shard key的范围。每一个 document 的shard key 的值,决定了这条document应该存放在哪个chunk中。+ o6 O2 P; x" x3 d% h
8 y$ d' X2 [: l- j
如果两条 documents 的 shard keys 的值很接近,这两条 documents 很可能被存放在同一个 chunk 中。
. `1 A4 m2 f$ e0 m' H/ x; D
0 }* Y9 F7 L, s+ r' H Shard key 的值的顺序,决定了 document 存放的 chunk。在 MongoDB 的文献中,这种切割 collection 的方式,称为order-preserving。7 N: [. }; [8 r0 A! H4 Z
- |# |! _, {) T0 M 一个 chunk最多能够存储64MB的数据。 当某个chunk存储的 documents包含的数据量,接近这个阈值时,一个chunk会被切分成两个新的chunks。
+ @0 Q9 g, C6 U N8 y! E% s3 A- e
当一个shard存储了过多的chunks,这个shard中的某些chunks会被迁移到其它 shard中。3 ?) _! a) w% T$ E/ r3 W
9 ~0 t! \! X. ~% Y e' X2 G
这里有个问题,假如某一条 document 包含的数据量很大,超过 64MB,一个 chunk 存放不下,怎么办?在后续章节介绍 GridFS 时,我们会详细讨论。# J4 y( H" J1 g6 n1 L r
& O9 t8 h) z" x5 ^
Replica set& } I" a4 S: Q( k, T( H; @0 b5 i" I
: E) e" x- T6 A6 S
在生产环境中,为了保证数据不丢失,为了提高系统的可用性(availability),每一个shard被存储多份,每个备份所在的servers,组成了一个replica set。
" J( g1 X2 G! D2 b! W9 Z# c8 }( G# Q) J `. c" T
这个replica set包括一个primary DB和多个secondary DBs。为了数据的一致性,所有的修改(insert / update / deletes) 请求都交给primary处理。处理结束之后,再异步地备份到其他secondary中。( N0 T" I" b( o
- ]5 f: Q5 F- Z Primary DB由replica set中的所有servers,共同选举产生。当这个primaryDB server出错的时候,可以从replica set中重新选举一个新的primaryDB,从而避免了单点故障。
! |) X3 L6 P0 J8 j5 G& ~
& W. d) W( L; D% V5 J Replica set的选举策略和数据同步机制,确保了系统的数据的一致性。后文详述。
$ [# y# c! g( h& J' A# H4 @* R5 b4 O f0 J$ {$ n, \) ~! D
Config Server
0 U) ] [7 P" r T7 v . o _; |; i* q7 z! e4 i: m
Config servers用于存储MongoDB集群的元数据 metadata,这些元数据包括如下两个部分,每一个shard server包括哪些chunks,每个chunk存储了哪些 collections 的哪些 documents。. ~: j$ C! @" T) Q$ l! R& S
9 Q: J* k* m C3 A& c0 [- S' h
每一个config server都包括了MongoDB中所有chunk的信息。
+ M5 |: ~& A" @
1 U; ?8 t9 F$ p& m/ ^) o r Config server也需要 replication。但是有趣的是,config server 采用了自己独特的replication模式,而没有沿用 replica set。
& s8 ]4 } @; ]% z; i4 K3 G( |& X: R( _5 B
如果任何一台config server挂了,整个 config server 集群中,其它 config server变成只读状态。这样做的原因,是避免在系统不稳定的情况下,冒然对元数据做任何改动,导致在不同的 config servers 中,出现元数据不一致的情况。
9 ~, {3 `: h7 T% {9 d) G# p3 ]8 n$ ~) K7 o$ G, [3 n
MongoDB的官方文档建议,配置3个config servers比较合适,既提供了足够的安全性,又避免了更多的config servers实例之间的数据同步,引起的元数据不一致的麻烦。
?6 j" b5 `/ `/ M+ N
D8 k% U+ X. V0 jMongos
- `7 q/ o- O9 g. |8 c8 ]9 g" s9 W5 }% J: \. [* v2 g
用户使用MongoDB 时,用户的操作请求,全部由mongos来转发。* t2 X* |4 }% }
" Q9 a# ~5 L" v6 ^6 \; e( h$ ?; R 当 mongos 接收到用户请求时,它先查询 config server,找到存放相应数据的shard servers。然后把用户请求,转发到这些 shard servers。当这些 shard servers完成操作后,它们把结果分别返回给 mongos。而当 mongos 汇总了所有的结果后,它把结果返回给用户。& x' I7 N) @6 f& N
6 x2 Y6 ?! O8 b% h+ U0 S1 c
Mongos每次启动的时候,都要到config servers中读取元数据,并缓存在本地。每当 config server中的元数据有改动,它都会通知所有的mongos。- u, T; l. M& g
& x/ `2 S1 s" [% v# _
Mongos之间,不存在彼此协同工作的问题。因此,MongoDB所需要配置的mongos server的数量,没有限制。
/ W* N3 \0 C. w5 q) v- f: }
% `* m3 A; `. O, @: C0 f3 H( B8 C& P q4 n 通过以上的介绍,我们对每个组成部分都有了基本的了解,但是涉及到工作的细节,我们尚有诸多疑问,例如,一个chunk的数据太大,如何切分?一个shard数据太多,如何迁移?在replica set中,如何选择primary?server挂了,怎么进行故障恢复?接下来的章节,我们逐个回答这些问题。
8 Z' Y6 h3 b0 T) x1 O# p+ J
+ V6 I% H: q& E9 }
. q: z9 T" f7 I1 L/ ]" u. ZReference,
2 c8 g2 F6 f* e7 n% m' v* e( o7 F/ i4 D5 E7 ~3 g5 q8 ~
[0] Architectural Overview3 p- `: P y+ a( @4 ]+ E3 j2 X
http://www.mongodb.org/display/DOCS/Sharding+Introduction
: X7 `/ }' p; l1 p: y- E- D: |( G |
评分
-
查看全部评分
|