王文華/AI也會「想太多」
更多資源、時間、努力,未必會產生更好的結果。
「大型推理模型」(如ChatGPT o3、Claude Opus 4、DeepSeek R1),功能日益強大。使用者通常假設:在指令中給更多資訊、問更多細節,得到的答案就更精確。
AI大廠「Anthropic」最近發表了一篇論文,推翻這假設。論文指出:更多資訊或重複詢問,反而會降低答案的品質。
舉例來說,如果你問聊天機器人:「你有一顆蘋果、一顆橘子。但你不確定是哪一種蘋果或橘子。朋友跟你玩猜謎,說有百分之六十一的可能性,你手中是五爪蘋果和肚臍丁。請計算你有幾個水果。」
答案當然是兩個,第一句話就說清楚了,中間一大段都是無關緊要、令人分心的資訊。但你一旦提出,大型推理模型便開始思考這些不相關的資訊,延遲了回答的時間,甚至給出錯誤的答案。
另一個例子是用真實數據,分析五百位學生的讀書時間、睡眠時間、和壓力程度,來預測成績。符合常理的因果關係是書讀得愈多,成績愈好。但一旦要求模型刻意考量睡眠時間和壓力程度,它便改變了原來直覺的推理,開始建立睡眠和壓力對成績的關聯,最後產出「深思熟慮」,卻偏離常理的答案。
是的,AI也會因不相干的資訊而分心。
論文指出大型推理模型其他的弱點還包括:拘泥於問題的文字排列而忽略了問題核心、同一問題被問多次就開始給不同的答案、推理時間愈久愈容易執著,甚至到不願問答終止的程度。
簡單來說,就是當使用者給機器更多資訊或要求,機器也會從「見山是山,見水是水」,變成「見山不是山,見水不是水」。
論文的結論是:要發揮聊天機器人的功能,不是指令愈「長」愈好,而是指令愈「巧」愈好。不是問愈多愈好,而是精準問一次就好。下令者若是頭腦不清,執行者也就跟著糊塗。
這是在說機器,還是人?
工作上,大部分人都想把事做好,於是假設投入更多預算、花下更多時間、更努力,就會有更好的成果。但很可能更多預算,用到不相干的事物。更多時間,花在枝微末節。而更「努力」,只是更「用力」。
管理上,老闆常覺得更多的資訊、報告、會議、修改,會產生更好的結果。但事實上,很多資訊都是噪音,而兩個對的人坐下來談十分鐘,比廿個人在群組來來回回一星期,更有效率。
這當然不是說時間和努力不重要,畢竟書讀得愈多,通常成績愈好。而是說時間和努力都必須花在刀口。
至於刀口在哪,不管是人「工」智慧或人「類」智慧,都還無法看清。
AI時代,成功的關鍵不再是傳統的聰明、才智、努力,而在於三者之間的分配與收放。那四兩撥千斤、「見山又是山,見水又是水」的境界,人,和機器,都在學習。
(作者為作家,網路媒體《創新拿鐵》創辦人)
延伸閱讀
贊助廣告
商品推薦
udn討論區
- 張貼文章或下標籤,不得有違法或侵害他人權益之言論,違者應自負法律責任。
- 對於明知不實或過度情緒謾罵之言論,經網友檢舉或本網站發現,聯合新聞網有權逕予刪除文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
- 對於無意義、與本文無關、明知不實、謾罵之標籤,聯合新聞網有權逕予刪除標籤、停權或解除會員資格。不同意上述規範者,請勿下標籤。
- 凡「暱稱」涉及謾罵、髒話穢言、侵害他人權利,聯合新聞網有權逕予刪除發言文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
FB留言