爱吱声
标题:
AI大模型能集思广益吗
[打印本页]
作者:
晨枫
时间:
2025-2-26 12:59
标题:
AI大模型能集思广益吗
DeepSeek放了个原子弹后,其他AI大模型厂家不甘落后,现在阿里也放出Qwen2.5 Max,相信还会有更多的。这是好事。不光中国的AI大模型还在继续放出来,美国也是,马斯克的xAI就刚放了Grok 3。
! v$ i1 H( }% V# ]
0 _) o4 T# Z; S; ~, F0 Q6 J2 h
现在似乎还是在各家各显神通的阶段。随着越来越多的开源、免费使用AI大模型出现,是否有可能互相接入、集思广益?
+ n: D; Z0 I4 F: v6 P
8 U1 P( ?* h/ p* B
三个臭皮匠,顶个诸葛亮。相信AI也是一样。
9 }0 |+ i Z( l; L" X
6 X& c) l0 G) u* ~
每一个成功的AI大模型都有强项、弱项,而且强弱还可能是动态的,对每一个问题都有不同的表现。如果可以互相接入,在提出本身的AI解的时候,参考“友邻AI”的解,尤其参考对方的推理过程和数据来源,以判断各个模型解的相对可靠性,然后汇总。这样可能可以最大限度的集思广益,提高最终AI解的精确性和有用性。
& c+ e N" s# c" I, {1 I! O5 Y7 X
) l# h2 Y1 k& d" O/ u
这里肯定会有很多商业和法律的问题,但现在只考虑技术问题。从“责任”来说,负责集思广益的AI大模型“负最终责任”。
\5 a+ _, m! E+ Y0 N* ?
% t) ]! T+ ?0 x1 A. P
人类也是这样的,听到伙伴的想法、办法更有道理,会加以采用。在采用的过程中,未必全盘照搬,而是融合进自己和第三方的合理因素,力求提出最优的最终解。集思广益的人也对最终解负责。
" z5 \ m: j7 M( w; l
& p A0 F1 M. O
AI大模型还在军备竞赛中。DeepSeek开创了非常好的先例:不片面扩大模型,而是用更加精妙的模型设计和算法获得更多的智能。但“军备竞赛”的冲动相信不可避免,需要避免“递减效应”。越来越大的模型或许还能更加智能,但大家都在重复建设,似乎挺浪费的。
3 Z: C5 |# T$ |0 I' B
' k* g# b% v0 p G- R
这个设想靠谱吗?感觉上有点像更高层次的MoE?
作者:
孟词宗
时间:
2025-2-27 12:11
如果你指的是同时使用几个大模型。现在就有。甚至你PC的内存足够的话,本地就可以跑 Multiple LLM。司机可以下载一个 LM Studio 和几个小一点 LLM 试试看。
6 y# b: _9 d0 h1 O3 b; J9 a8 d
. x3 v+ Z' \- t) O1 [2 w( R
如果你指的是融合几个大模型。这也是现在各厂商都在干的事情。事实上,各种蒸馏版不就是缩水的融合版?例如 DS 就有 基于通义千问的蒸馏版和基于羊驼的蒸馏版。而 Huggingface 上各种融合版本不要太多。
欢迎光临 爱吱声 (http://aswetalk.net/bbs/)
Powered by Discuz! X3.2