|
|
关于MongoDB,我们能看到的资料,基本都是在指导大家如何使用MongoDB,但是,MongoDB内部是如何运作的,资料不是很多。) _- w4 P6 A6 C5 V# y6 @
7 M3 k/ O6 p, A: I2 Y5 o6 Y 阅读使用手册,会有很多疑惑之处。例如,有人说,MongoDB 等同于分布式的 MySQL。它把一个Table ,按 row,分割成多个Shards,分别存放在不同的 Servers 上。这种说法是否正确?% v, t) z3 M: K# g/ p$ K
: o) B" G% \3 c2 \. S9 X1 C
不深入了解 MongoDB 的内部结构,就无法透彻地回答类似问题。这个系列文章,就来和大家探讨MongoDB的内部的工作方式。
$ {& i# [: |1 r7 w5 x. J2 l) t% I$ ]. [' u1 T. t p
, F2 F) m g0 T
* {0 S r/ z" A" M9 i% K
图1-1 MongoDB架构图 ( l# k; F2 ?% }4 d
2 I7 _5 v$ R4 V5 f: {# t" F MongoDB 通常运行在一个服务器集群上,而不是一个单机。图1-1,描述了一个MongoDB集群的基本组成部分,包括若干shards,至少一个config server,至少一个routing servers(又称 mongos)。
# D$ `$ L' @0 F: u. E( M7 h5 Z9 n/ T) ], [% `
Shards
, j9 y+ D/ U: f: S6 x8 R* E& H. p: r- w1 _. r) {" ^6 h
MongoDB的最基本的数据单元,叫document,类似于关系式数据库中的行 row。一系列documents,组成了一个collection,相当于关系式数据库中的table。当一个 collection 数据量太大时,可以把该collection按documents切分,分成多个数据块,每个数据块叫做一个chunk,多个chunks聚集在一起,组成了一个shard。4 {* e) r2 ~ }
. a5 @$ ?2 s2 {# @8 ] Sharding 的意义,不仅保障了数据库的扩容(scalability),同时也保障了系统的负载均衡(load balance)。
6 i4 T8 n$ z! Q* ^+ M) H: c3 H! r
( S" ]4 Z. D4 t7 }- L' | 每一个shard存储在一个物理服务器(server)上。Server上运行着mongod进程,通过这个进程,对shard中的数据进行操作,主要是增删改查。9 y$ l9 H% |, T, H! E9 s8 |" i. h3 P
0 G7 n% v7 V- E% }
如果系统中的每个shard,只存储了一份数据,没有备份,那么当这个shard所在的server挂了,数据就丢失了。在生产环境中,为了保证数据不丢失,为了提高系统的可用性(availability),每一个shard被存储多份,每个备份所在的servers,组成了一个replica set。4 o. _6 @1 Z9 e$ g
" @! y% k F: o. F- H* D/ O' x% ^Shard keys8 z3 {( ~7 A3 A. A1 l
, u* |% z+ D0 l/ h5 s
为了把collection切分成不同的chunks,从而存放到不同的shards中,我们需要制定一个切分的方式。
1 F$ ^; V9 t6 {+ S* ?) @ K7 q, y( E* x b1 g9 N z5 m
如前所述,在 MongoDB 数据库中,一个表collection由多个行 documents 组成,而每个 document,有多个属性 fields。同一个 collection 中的不同的 documents,可能会有不同的 fields。例如,有个 collection 叫 Media,包含两条 documents,
& x% p. f3 a, ]" F7 F' b; t3 ^) N3 } I1 v4 W3 U) N
{
- B6 l9 B& j# s7 V: O "ISBN": "987-30-3652-5130-82",- O' |. J) S3 E' N$ ] y& N
"Type": "CD",
2 D$ z5 i$ C- B I8 S7 o "Author": "Nirvana",5 i3 B0 K% i! d* y+ B
"Title": "Nevermind",
& I* z$ F) n! {7 Q2 S$ b "Genre": "Grunge",5 R% z* T$ F! N
"Releasedate": "1991.09.24",
+ a' h$ O0 I9 W; A "Tracklist": [
- e o: {& _: t {) J$ x7 S/ ]2 p q- S& x6 a7 M
"Track" : "1",, l" U! B" t* r y$ A* r
"Title" : "Smells like teen spirit",5 B/ K, A* _$ `/ q: }. _0 ~
"Length" : "5:02"( f P( L- H% G+ w
},# V! k8 M$ c; d/ ?2 a7 h8 \' |
{
9 n- e* F( ^9 J# O5 b "Track" : "2",+ s0 e- {5 O5 f% ^( s! {7 d" v
"Title" : "In Bloom",/ [ d/ ~+ q$ C4 l. f5 r
"Length" : "4:15"
3 d4 v, v; m) [7 I }
; p. A ]/ k$ I q ]
4 a/ i1 [/ x3 `% h7 N; r) v}
8 ^6 y. M) n$ e I2 C' u
# p+ n! N# h+ n0 Q{" g6 f n/ D. }
"ISBN": "987-1-4302-3051-9",3 ]4 `/ v" f$ W( i, g9 S; I
"Type": "Book",! W. G! X, ]$ G
"Title": "Definite Guide to MongoDB: The NoSQL Database",
0 t& S! b+ q: m" Z% }+ d "Publisher": "Apress",
- L- D, Z! K& E7 E5 L7 u- w& @ "Author": " Eelco Plugge",% _6 ^5 ?% C' O' a0 k
"Releasedate": "2011.06.09"
& j% `& w2 g5 H# L# ?0 z$ d5 l7 B}
. u' e# [) N& o" R3 m+ b: O. M b- n4 ~- U, q) J3 u
假如,在同一个 collection 中的所有 document,都包含某个共同的 field,例如前例中的“ISBN”,那么我们就可以按照这个 field 的值,来分割 collection。这个 field 的值,又称为 shard key。$ P) D) X! }* i
) `5 t. N# U& b2 ~, R 在选择shard key的时候,一定要确保这个key能够把collection均匀地切分成很多chunks。0 k2 Z/ _5 \/ J$ c
% q& A" ^- P( m: X3 J: F+ D
例如,如果我们选择“author”作为shard key,如果有大量的作者是重名的,那么就会有大量的数据聚集在同一个chunk中。当然,假设很少有作者同名同姓,那么“author”也可以作为一个shard key。换句话说,shard key 的选择,与使用场景密切相关。
5 @$ w, c) {; c i! U* B. z( r9 R: A! h+ z' m6 k7 C
很多情况下,无论选择哪一个单一的 field 作为shard key,都无法均匀分割 collection。在这种情况下,我们可以考虑,用多个 fields,构成一个复合的shard key。
: S8 F! [+ T. x! A6 C) y: h- C+ M) ]3 O! p: S. u0 C
延续前例,假如有很多作者同名同姓,他们都叫“王二”。用 author 作为 shard key,显然无法均匀切割 collection。这时我们可以加上release-date,组成name-date的复合 shard key,例如“王二 2011”。
" `" e6 R1 w; c6 t0 i( @2 M
) w+ O- I, K, Y; N: FChunks
6 R6 \$ @) k- u0 f" r8 F
6 ^# K; \5 G/ a2 Y T+ ] MongoDB按 shard key,把 collection切割成若干 chunks。每个 chunk 的数据结构,是一个三元组,{collection,minKey,maxKey},如图1-2 所示。
9 ^: ^5 Q6 H, t6 t+ m: ?) c! {8 b2 [" m2 {
; B/ y! _1 X3 R: }4 y
图1-2 chunk的三元组
4 e& H: ]) D, {0 U! W+ f0 O: |, q" D) I+ @+ O$ X7 T- g
其中,collection 是数据库中某一个表的名称,而 minKey 和 maxKey 是 shard key的范围。每一个 document 的shard key 的值,决定了这条document应该存放在哪个chunk中。, P6 ~5 ]! n, A! Z4 f/ e
& T% B8 @, s; S8 r& f7 o0 K# b. L 如果两条 documents 的 shard keys 的值很接近,这两条 documents 很可能被存放在同一个 chunk 中。
0 f$ o! d3 c2 e) ~' w. Z: o$ T o8 K
Shard key 的值的顺序,决定了 document 存放的 chunk。在 MongoDB 的文献中,这种切割 collection 的方式,称为order-preserving。
5 `5 }/ }- g" m9 M5 V' l$ r8 ^8 B# J+ G7 ]4 j
一个 chunk最多能够存储64MB的数据。 当某个chunk存储的 documents包含的数据量,接近这个阈值时,一个chunk会被切分成两个新的chunks。
# n# E5 ]4 @# j4 P1 @7 ]# v& S3 l6 J5 N- M- L- B- \6 T* B
当一个shard存储了过多的chunks,这个shard中的某些chunks会被迁移到其它 shard中。
4 Y0 Y2 ^7 \: F$ S" l1 Y" Q% E" ^' [! | H% {" E8 Z
这里有个问题,假如某一条 document 包含的数据量很大,超过 64MB,一个 chunk 存放不下,怎么办?在后续章节介绍 GridFS 时,我们会详细讨论。9 O. {( j$ i b) H0 V( `$ J1 P t
2 D$ F8 o" s. k& e1 [Replica set3 F, }" ^% _1 ]; ~
% h3 E: J1 @+ c) E: e
在生产环境中,为了保证数据不丢失,为了提高系统的可用性(availability),每一个shard被存储多份,每个备份所在的servers,组成了一个replica set。! @) Q8 M2 @* [) {
% }1 _7 Q# d6 [2 V 这个replica set包括一个primary DB和多个secondary DBs。为了数据的一致性,所有的修改(insert / update / deletes) 请求都交给primary处理。处理结束之后,再异步地备份到其他secondary中。0 E3 \4 Z5 d1 @! z& g. e) Y* I( c
! S: p9 s) k% g* S9 ]6 g
Primary DB由replica set中的所有servers,共同选举产生。当这个primaryDB server出错的时候,可以从replica set中重新选举一个新的primaryDB,从而避免了单点故障。
/ Z. m! D, c5 B3 k9 ]; F2 c) }5 T* p q9 U
Replica set的选举策略和数据同步机制,确保了系统的数据的一致性。后文详述。) |) [7 z( t% x/ X* K
6 Z8 L8 B5 t9 [
Config Server
4 M- t3 f# X% b: ]
! B$ @* `8 d" h Config servers用于存储MongoDB集群的元数据 metadata,这些元数据包括如下两个部分,每一个shard server包括哪些chunks,每个chunk存储了哪些 collections 的哪些 documents。
: c9 r3 J" n0 F; h3 t: o4 f5 q' j! n% o1 M9 M) Z
每一个config server都包括了MongoDB中所有chunk的信息。
0 ~4 ?! m( T; h
/ U8 x. a% P) n5 Q1 b1 M Config server也需要 replication。但是有趣的是,config server 采用了自己独特的replication模式,而没有沿用 replica set。4 A- X' s3 Z. M- W) d; ~
. e t) q' Z! |0 M8 H. P: P 如果任何一台config server挂了,整个 config server 集群中,其它 config server变成只读状态。这样做的原因,是避免在系统不稳定的情况下,冒然对元数据做任何改动,导致在不同的 config servers 中,出现元数据不一致的情况。
! I+ B i! v m5 q* `
7 B* t4 u. ~6 Q; } MongoDB的官方文档建议,配置3个config servers比较合适,既提供了足够的安全性,又避免了更多的config servers实例之间的数据同步,引起的元数据不一致的麻烦。
0 [. o C1 i: h
! n$ j' x0 f8 G0 n; y7 jMongos
t( D+ t- ]- b. n: Y
c/ x. T% e! y# t% A# J$ v5 K% Q 用户使用MongoDB 时,用户的操作请求,全部由mongos来转发。5 t: T) n' W7 X# q& f. o+ g
" W) L2 l. @4 j5 H; g; _8 E# k 当 mongos 接收到用户请求时,它先查询 config server,找到存放相应数据的shard servers。然后把用户请求,转发到这些 shard servers。当这些 shard servers完成操作后,它们把结果分别返回给 mongos。而当 mongos 汇总了所有的结果后,它把结果返回给用户。
; k" p7 O: J; T# B" p# [% @- ^) }* m, S4 d" A* n2 A" D- N; v
Mongos每次启动的时候,都要到config servers中读取元数据,并缓存在本地。每当 config server中的元数据有改动,它都会通知所有的mongos。, ] v' E; M2 h# {
+ D8 I3 s# \9 b( T! d# ^ Mongos之间,不存在彼此协同工作的问题。因此,MongoDB所需要配置的mongos server的数量,没有限制。
& {. x1 Z& M) j3 o$ q# o8 Y/ \7 r, [4 U. Z- j3 A
通过以上的介绍,我们对每个组成部分都有了基本的了解,但是涉及到工作的细节,我们尚有诸多疑问,例如,一个chunk的数据太大,如何切分?一个shard数据太多,如何迁移?在replica set中,如何选择primary?server挂了,怎么进行故障恢复?接下来的章节,我们逐个回答这些问题。3 S) \; }: F; L4 [: y5 v" b& n1 Y
2 b$ _# w, D9 c5 e8 p7 |! r0 u! v: H* \6 n6 }7 {8 c' c5 l4 O5 p
Reference,) E+ N+ g2 _7 _9 S
. L% {4 d) m$ @& j; }9 x$ @
[0] Architectural Overview n0 x- {+ k" y1 C3 J" v
http://www.mongodb.org/display/DOCS/Sharding+Introduction9 Q7 i% Z4 \1 c' w; O( @( ^2 c
|
评分
-
查看全部评分
|