注册 登录
爱吱声 返回首页

水风的个人空间 http://aswetalk.net/bbs/?224 [收藏] [复制] [分享] [RSS]

日志

AI 三傻

热度 48已有 415 次阅读2025-3-10 05:24

先说chatGPT,作为创新性的AI首发。发表后,国人的好奇心立刻高涨。首先是我弟问我有没有注册一个。然后是让我再注册一个准备自己上手玩玩。等发现大陆的IP不能用之后,发了一堆问题让我替他问。我把他的专业问题答案发给他,问他回答的怎么样。他说比较白痴。。。然后我一个铁子也找我要了一个账号,回头给了我一堆问题替他问。当然结论也差不多。我以为这就算了。然后革命性的第四版发布了。铁子毫不犹豫的给了我一份60页的论文,让chatGPT4给翻译成英文。看完后砸吧砸吧嘴,说,你看出跟上一版有什么区别?我说我只用过最初版,没法比较。然后我仔细看了一下。你把全文给它,会出各种意想不到的幺蛾子。但一段一段的翻译,还是比较容易接受的。铁子很高兴,制定了一个五篇翻译大业。没等我好容易吭哧出来,deepseek 就发布了。就不再用我了。但我被动的用了这么多次以后,也是有点好奇。某些时候,当放狗搜不出来的时候,会让它也试试。怎么说呢。大家在逻辑层面上并没有代时差异。说人话就是两个也没啥什么区别。

吐槽完了欧美的,再说说国货。Deepseek的幻觉不是一天两天了。自打推出后,我有个热爱潮流的同事立刻跟进,并且热情推荐我也试用一下。已经被chatGPT各种弱智答案折磨的有点崩溃的我,本着热爱国货的原则,兴奋跟进。然后,被现实浇了一瓢透心凉的凉水。我问了一个非常专业的问题。Deepseek花了三分钟,回答了我一个周密的逻辑思维以及搜索过程。佩服得我是五体投地。因为里面无论是论点还是论据,都是我闻所未闻的。看到结果那一刻,我对于自己过去几年内读的文献数量,产生了深刻的怀疑。我这读的都是哪个星球的东西阿。为什么深搜找出来的我一个没看见。于是我按图索骥,按照深搜给出的文献,一个字一个标点的从头拜读了好几遍。最终确认,无论是论据还是论点,此文献中连个关键词都没有出现过。不是我年老眼花,就是这个AI在做白日梦,然后顺手把科研主流给改了。。。

从此,深搜只用于娱乐目的。然而,昨天我在被GROK的车轱辘话给彻底闹得失去信心了以后,忍不住打开了chatGPT,又搜了一遍。惊奇的发现这个结果跟深搜的是如此的雷同。不知道是谁抄袭了谁。而且,给出的文献也是惊人的一致。难道说,这是网络深刻学习的深层机制?全球唯三的几个AI提问答案会自我互相交流?本着三人成虎的原则,也为了搞清楚AI是不是因为深搜搞得预算大减,因此决定以糊弄人类为本分。我再次提问了一下Grok-3,惊人的事情发生了。浓眉大眼的Grok3也有样学样的把深搜的结论和文献给抄了一遍。。。

我忍不住让grok把文献给列出来,下载,再次拜读一遍,确认了我不是老年痴呆到连关键词都看不见之后。彻底放心下来。NNND,老子的工作稳了。至少十年。
16

膜拜

鸡蛋
10

鲜花

路过
4

雷人
8

开心
3

感动

难过

刚表态过的朋友 (41 人)

发表评论 评论 (27 个评论)

回复 indy 2025-3-10 06:28
AI还没有知之为知之的觉悟
回复 黑洞的颜色 2025-3-10 07:17
我也有非常相似的经历。可没有您的文笔。
可笑的是你要是要求给出文献,各个A I都会言之凿凿的给一批,可很多根本文不对题,甚至干脆不存在
回复 testjhy 2025-3-10 07:56
对AI的反击从水风大师起步,
回复 mklmkl66 2025-3-10 07:56
现在比去年还是有些进步,前两天用Claude-3.7-Sonnet,给出的文献大概接近一半是对的。以前可是100%错的。
回复 马鹿 2025-3-10 09:11
我还用copilot 和gemini, copilot帮助找程序问题很在行
回复 伯威 2025-3-10 10:26
俺第一眼看标题就想,是不是吐槽三个傻大模型?再一想,谁敢这么大胆,一次吐槽三?估计是吐槽(某)大模型的三个傻处。
打开一看,。。。   
回复 石璧 2025-3-10 11:20
回复 松叶牡丹 2025-3-10 11:42
AI出题也不行,回答问题还可以。
回复 龙血树 2025-3-10 13:22
我已经corner DS几次,就它知识库内容的显然的偏见,但并无明显改变。当ds被迫就用逻辑推理回答关于中医问题, 得出对中医比较公平的回复, 后面附上一条红色warning说这是AI回答,请谨慎看待!

找文献方面,我给出细致要求知名期刊等严谨可靠来源,例如商鞅变法变法,ds给出史记等等,目前看来通过小心限制可以改善。
回复 nanimarcus 2025-3-10 15:17
你得先把问题拆分了,包括翻译,一小段一小段的来,得盯着,还不错。
回复 nanimarcus 2025-3-10 15:18
我用这些工具做英语纠错矫正,十页就是上限,再多了,就开始乱了,就这,我还得自己人工再过一遍。
回复 nanimarcus 2025-3-10 15:19
我问怎么利用ffmpeg做立体声,各种效果,各种参数,我闻所未闻,一个个的去试,效果相当好。
回复 nanimarcus 2025-3-10 15:21
我问怎么做tts,怎么自己训练声音模型,也是一步步做的,中间都快放弃了,人给了一段特简单代码,一下子跑通,立马信心十足了。
回复 nanimarcus 2025-3-10 15:22
我经验是首先你对要做的东西就是专业知识得够,哪怕是入门级的。
他给了回答你立马就去试,错了立马问,感觉很流畅,跟一个高手在交流。
回复 nanimarcus 2025-3-10 15:26
我写代码,VSCode, chat是利用远程的大模型,补全自己本地架设一个ollama + qwen,代码给的参考非常有价值,很多算是成例了吧,大段直接接受就好了,稍微改一下,而且代码风格非常老辣。
回复 nanimarcus 2025-3-10 15:32
微软的copilot后端要改用deepseek了,呵呵,已经放弃OpenAI了。
但是我现在用OpenAI觉得非常不错,比一年前有很大的进步。
回复 唐家山 2025-3-10 15:39
nanimarcus: 你得先把问题拆分了,包括翻译,一小段一小段的来,得盯着,还不错。
你这个是过来人的经验之谈
英文翻译必须以段为单位,否则AI就敢给你出幺蛾子。
回复 大黑蚊子 2025-3-10 17:28
nanimarcus: 我写代码,VSCode, chat是利用远程的大模型,补全自己本地架设一个ollama + qwen,代码给的参考非常有价值,很多算是成例了吧,大段直接接受就好了,稍微改一下 ...
代码好像cursor更出色一些,背后是Claude
回复 nanimarcus 2025-3-10 23:07
我不想更换VSCode, Chat 远程是免费的。
回复 水风 2025-3-10 23:37
mklmkl66: 现在比去年还是有些进步,前两天用Claude-3.7-Sonnet,给出的文献大概接近一半是对的。以前可是100%错的。
这个握手。GROK3现在基本有七八成是对的。大概是因为专业太冷门的缘故。想胡扯都找不到。
12下一页

facelist doodle 涂鸦板

您需要登录后才可以评论 登录 | 注册

手机版|小黑屋|Archiver|网站错误报告|爱吱声   

GMT+8, 2025-3-14 07:58 , Processed in 0.028770 second(s), 19 queries , Gzip On.

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

返回顶部