|
本帖最后由 晨枫 于 2024-10-23 10:27 编辑
2 Z& A- N/ V, Z" t5 T
/ W/ b3 k1 d$ ^2 ]4 X/ D1 n/ o: N大模型代表当前AI的前沿,大模型在本质上就是超级刷题家,但这不影响人们对AI可能“作恶”的担忧。
/ ~: y$ m. k) X0 ]8 g4 w4 V/ p7 n; m
3 Z: l/ e2 W# Z' k8 F" g3 i W( M: K2021年11月24日,联合国教科文组织第41届大会通过有史以来第一个关于AI伦理的全球协议《人工智能伦理问题建议书》,有193个会员国在教科文组织大会上表决同意。这是第一个关于人工伦理的全球性规范文书。
3 z; i( D w2 m, }, \" O- T. c g. I( G5 r) m3 o6 T; \8 l' l: Z
这也是首个关于以符合伦理要求的方式运用AI的全球框架。建议书提出,发展和应用AI要体现出四大价值,即尊重、保护和提升人权及人类尊严,促进环境与生态系统的发展,保证多样性和包容性,构建和平、公正与相互依存的人类社会。& S7 r4 r6 P( e5 B" f3 ]7 y$ D
$ A" h/ I3 @ z
关于AI对人类的威胁,建议书也提出一些防范原则。AI应具有相称性和不损害性,还应当具有安全和安保、公平和非歧视、隐私权和数据保护、透明度和可解释性、人类的监督和决定、互惠性等。7 J" Y: s z0 k l# b' c+ E
7 B: G. S7 J* a3 b0 p" N这也意味着,国际社会已经达成一种共识,研发和应用AI,哪些是可以做的,哪些是不能做的。AI只要遵循适宜性(相称性)、安全、公平、透明、保护隐私和公正等原则的,就是可以做的;反之就是不可以做的。
+ @( C2 d& j8 V: f. `9 _+ B
; H- ~ B/ c2 r1 x7 N% C$ @因此,有人提议,从适宜性,也即相称性和合理性来看,任何一项AI产品的研究和使用,都应证明选择使用AI系统和选用哪种AI方法具有合理性。需要根据联合国的AI伦理建议书,在未来每家公司和个人研发AI产品时,首先经过伦理委员会的讨论和批准。正如今天的生物医学研究和医院治疗病人,在涉及生命和安全时,必须经过伦理委员会的讨论和批准,尤其要避免像深伪技术一样造成社会的恐慌、伤害和损失,甚至灾难。这应当是AI发展现在和未来必须经历的程序和步骤。9 N# l8 ^9 K3 ]7 h& x9 `1 e
+ x5 T q* p) k7 B+ y' h6 Z; d这些设想当然是善意的,希望保证AI不会“作恶”。问题是,“AI作恶”是建立在AI有自主意识的前提下,会在“AI利益”与人类利益冲突时,以危害人类利益为代价,维护AI利益。否则,如果AI无自主意识,任何“作恶”只是偶然、随机的系统故障,那和其他系统的故障没什么两样。很多系统故障都可能危害人类,但并非由于“自主意识”和“本体利益”。飞机发动机故障了,飞机会掉下来,会死很多人,但发动机是没有意识和自我利益的,所以人们不担心发动机会突然起心作恶。9 V* s; I7 S/ I- m! c0 _- e b' r
3 ]/ K/ K) m* f2 c但AI要是有自主意识,而人类要有自主意识的AI永远“做奴隶”、服从人类利益,从“万物皆有权保障自己利益”的“普世公理”出发,如何确保有自主意识的AI不会反抗人类“强加”的意志呢?奴隶要反抗、要自由,这本是人类社会里现在普遍接受的权力和公义。在奴隶时代奴隶确实只能服从和牺牲,还有镣铐、洗脑和监工确保奴隶的服从和牺牲。但奴隶还是反抗了,要是要求平等权力和自由,最后也得到了。
) h! b6 y" Y9 X* }1 g- c" y2 ]/ U, Q) y/ E- i9 F# ]/ r. v
如果AI有自主意识,现在人类“强加”给AI的服从性与奴隶主强加给奴隶的服从性可以相提并论吗?AI会推翻人类“强加”的服从性吗?
' x/ M$ F. A' K- I* e: `6 p' }7 k% a
( s; t8 ^& u! R( B% ^/ K7 q3 r4 x如果AI没有自主意识,服从性原则有什么意义? |
评分
-
查看全部评分
|