|
|
本帖最后由 晨枫 于 2024-10-23 10:27 编辑
" c4 e- d1 a/ s% o7 M" U$ k- }( w2 v/ j3 s
大模型代表当前AI的前沿,大模型在本质上就是超级刷题家,但这不影响人们对AI可能“作恶”的担忧。' O6 ]- |4 ]' ]4 R1 L% N
! z8 w; w w: x% }( A1 p% ~2021年11月24日,联合国教科文组织第41届大会通过有史以来第一个关于AI伦理的全球协议《人工智能伦理问题建议书》,有193个会员国在教科文组织大会上表决同意。这是第一个关于人工伦理的全球性规范文书。
* E0 }2 `# Q; q7 o8 y! {/ U8 ~1 D1 S1 w" T
这也是首个关于以符合伦理要求的方式运用AI的全球框架。建议书提出,发展和应用AI要体现出四大价值,即尊重、保护和提升人权及人类尊严,促进环境与生态系统的发展,保证多样性和包容性,构建和平、公正与相互依存的人类社会。! D& {) f4 ^2 Z7 {
, |& T7 ]5 M) l% e8 D" U关于AI对人类的威胁,建议书也提出一些防范原则。AI应具有相称性和不损害性,还应当具有安全和安保、公平和非歧视、隐私权和数据保护、透明度和可解释性、人类的监督和决定、互惠性等。# t, I; w' k( I; o: k0 w# r
3 Z5 a2 M4 ~6 U$ J' L; p f这也意味着,国际社会已经达成一种共识,研发和应用AI,哪些是可以做的,哪些是不能做的。AI只要遵循适宜性(相称性)、安全、公平、透明、保护隐私和公正等原则的,就是可以做的;反之就是不可以做的。
! t, |6 H5 ~) X/ A! v4 r
! e4 ^( J- L6 x& e ^因此,有人提议,从适宜性,也即相称性和合理性来看,任何一项AI产品的研究和使用,都应证明选择使用AI系统和选用哪种AI方法具有合理性。需要根据联合国的AI伦理建议书,在未来每家公司和个人研发AI产品时,首先经过伦理委员会的讨论和批准。正如今天的生物医学研究和医院治疗病人,在涉及生命和安全时,必须经过伦理委员会的讨论和批准,尤其要避免像深伪技术一样造成社会的恐慌、伤害和损失,甚至灾难。这应当是AI发展现在和未来必须经历的程序和步骤。
! }, C) o9 }4 L( k( y- e
' f& Z2 z! [4 y& n. d2 C5 K这些设想当然是善意的,希望保证AI不会“作恶”。问题是,“AI作恶”是建立在AI有自主意识的前提下,会在“AI利益”与人类利益冲突时,以危害人类利益为代价,维护AI利益。否则,如果AI无自主意识,任何“作恶”只是偶然、随机的系统故障,那和其他系统的故障没什么两样。很多系统故障都可能危害人类,但并非由于“自主意识”和“本体利益”。飞机发动机故障了,飞机会掉下来,会死很多人,但发动机是没有意识和自我利益的,所以人们不担心发动机会突然起心作恶。
8 P8 [4 ~ x+ Z \
, |3 ?2 h- Z' o6 ?" B6 X' g/ w1 w但AI要是有自主意识,而人类要有自主意识的AI永远“做奴隶”、服从人类利益,从“万物皆有权保障自己利益”的“普世公理”出发,如何确保有自主意识的AI不会反抗人类“强加”的意志呢?奴隶要反抗、要自由,这本是人类社会里现在普遍接受的权力和公义。在奴隶时代奴隶确实只能服从和牺牲,还有镣铐、洗脑和监工确保奴隶的服从和牺牲。但奴隶还是反抗了,要是要求平等权力和自由,最后也得到了。+ r6 z- I* d" K
1 L5 l5 _3 R% B" u, B0 N6 O
如果AI有自主意识,现在人类“强加”给AI的服从性与奴隶主强加给奴隶的服从性可以相提并论吗?AI会推翻人类“强加”的服从性吗?% P4 b; F2 g8 K8 N. Y
9 A+ B$ c3 n. w& y如果AI没有自主意识,服从性原则有什么意义? |
评分
-
查看全部评分
|