' t6 i. s5 ^8 V7 _- i( n) z2024 年,OpenAI 内部提出了一个新的五阶段 AI 发展路线图,将 AI 的发展分为五个阶段: 6 q- O m# i' O5 K$ l ( V# ^# a7 n' e6 r4 U- @1 N/ fLevel 1 Stage AI: Chatbots: AI with conversational language.: [. i4 p5 [5 P2 |$ \
Level 2 Stage AI: Reasoners: Human-level problem solving. 1 p: K5 v ^' P9 oLevel 3 Stage AI: Agents: Systems that can take actions.8 F, b$ a) k& \- J4 v
Level 4 Stage AI: Innovators: AI that can aid in invention.- h0 G2 K* E! G3 o
Level 5 Stage AI: Organizations: AI that can do the work of an organization19. 2 b6 j+ q3 n& L# e& u% p这一路线图表明 OpenAI 正在逐步推进 AGI 的发展,并更加注重 AI 的实际应用 19。OpenAI 认为,第一个 AGI 只是智能连续体上的一个点,AI 的发展将会持续下去,并可能在很长一段时间内保持过去十年的发展速度 20。; O- l' d: m M7 Z3 h1 Q d
7 n. b8 | M4 U- t4 f( J. B这个五阶段路线图也与行业发展趋势相符 21。为了迎接每个阶段的到来,OpenAI 建议企业和组织采取相应的措施,例如培训团队学习如何与 AI 系统沟通、整理数据以供 AI 使用、以及将业务流程系统化 21。 , U6 l2 k! Q" B( N" \ 4 R( ?, I$ }, P- |3 s! B值得注意的是,OpenAI 对 AGI 的定义发生了微妙的转变。从最初强调经济效益,到如今更关注 AI 的综合能力和发展阶段,OpenAI 对 AGI 的理解更加全面和 nuanced 1。这可能是因为 AGI 本身的复杂性以及对其发展路径的不断探索所致。 8 a% v% l, S. b 4 P j Y7 N& S% Q# R) X伦理与安全挑战 # v, R, X$ T5 L6 \OpenAI 在追求 AGI 的过程中,也面临着伦理和安全方面的挑战。一些 AI 安全研究人员对 OpenAI 的发展方向表示担忧,认为 OpenAI 过于注重 AI 能力的提升,而忽视了安全和伦理问题 22。例如,OpenAI 的一些 AI 安全专家,如 Dario Amodei 和 Paul Christiano,已经离开了公司 7。 + n3 Y* P1 Y6 E$ d0 o4 M7 c9 T8 \& ~
OpenAI 承认 AGI 发展带来的潜在风险,例如,一个未 alignment 的超级智能 AGI 可能会对世界造成严重危害;一个拥有 decisive 超级智能领导权的独裁政权也可能做到这一点 20。因此,OpenAI 也在积极探索如何确保 AGI 的安全性和 beneficiality,例如,他们认为广泛分享 AGI 的好处、获取途径和治理方式至关重要 20。 ; b8 e [$ \7 B! ~' }2 Z" B! i6 o% q, |9 F
OpenAI 的产品和服务 : Z. n+ e u& I4 F, _OpenAI 目前提供一系列产品和服务,这些产品和服务都与其 AGI 使命密切相关,并体现了其商业化程度的不断提高 23。主要产品和服务包括:" W9 @& K3 j/ {7 t* P