快訊

美商務部長:將與台灣達成重大協議

王文華/AI也會「想太多」

更多資源、時間、努力,未必會產生更好的結果。

「大型推理模型」(如ChatGPT o3、Claude Opus 4、DeepSeek R1),功能日益強大。使用者通常假設:在指令中給更多資訊、問更多細節,得到的答案就更精確。

AI大廠「Anthropic」最近發表了一篇論文,推翻這假設。論文指出:更多資訊或重複詢問,反而會降低答案的品質。

舉例來說,如果你問聊天機器人:「你有一顆蘋果、一顆橘子。但你不確定是哪一種蘋果或橘子。朋友跟你玩猜謎,說有百分之六十一的可能性,你手中是五爪蘋果和肚臍丁。請計算你有幾個水果。」

答案當然是兩個,第一句話就說清楚了,中間一大段都是無關緊要、令人分心的資訊。但你一旦提出,大型推理模型便開始思考這些不相關的資訊,延遲了回答的時間,甚至給出錯誤的答案。

另一個例子是用真實數據,分析五百位學生的讀書時間、睡眠時間、和壓力程度,來預測成績。符合常理的因果關係是書讀得愈多,成績愈好。但一旦要求模型刻意考量睡眠時間和壓力程度,它便改變了原來直覺的推理,開始建立睡眠和壓力對成績的關聯,最後產出「深思熟慮」,卻偏離常理的答案。

是的,AI也會因不相干的資訊而分心。

論文指出大型推理模型其他的弱點還包括:拘泥於問題的文字排列而忽略了問題核心、同一問題被問多次就開始給不同的答案、推理時間愈久愈容易執著,甚至到不願問答終止的程度。

簡單來說,就是當使用者給機器更多資訊或要求,機器也會從「見山是山,見水是水」,變成「見山不是山,見水不是水」。

論文的結論是:要發揮聊天機器人的功能,不是指令愈「長」愈好,而是指令愈「巧」愈好。不是問愈多愈好,而是精準問一次就好。下令者若是頭腦不清,執行者也就跟著糊塗。

這是在說機器,還是人?

工作上,大部分人都想把事做好,於是假設投入更多預算、花下更多時間、更努力,就會有更好的成果。但很可能更多預算,用到不相干的事物。更多時間,花在枝微末節。而更「努力」,只是更「用力」。

管理上,老闆常覺得更多的資訊、報告、會議、修改,會產生更好的結果。但事實上,很多資訊都是噪音,而兩個對的人坐下來談十分鐘,比廿個人在群組來來回回一星期,更有效率。

這當然不是說時間和努力不重要,畢竟書讀得愈多,通常成績愈好。而是說時間和努力都必須花在刀口。

至於刀口在哪,不管是人「工」智慧或人「類」智慧,都還無法看清。

AI時代,成功的關鍵不再是傳統的聰明、才智、努力,而在於三者之間的分配與收放。那四兩撥千斤、「見山又是山,見水又是水」的境界,人,和機器,都在學習。

(作者為作家,網路媒體《創新拿鐵》創辦人)

延伸閱讀

這有吸吧?VTuber自製超ㄎㄧㄤ模型 L2D動態綁街機搖桿掀熱議

輝達發布新一代AI晶片Rubin CPX 明年底上市

陸AI雲爆發 阿里市占第一…獨拿35%市場

博士學位20年後遭撤銷 大學副教授論文涉抄襲提告爭權吞敗

相關新聞

廖元豪/從律師節反思法律專業

九月九日律師節,雖然沒有被列為法定的節日或紀念日,但正副總統均有出席相關慶祝大會並發表演說,顯示這個專業的重要。然而,律...

王文華/AI也會「想太多」

更多資源、時間、努力,未必會產生更好的結果。

商品推薦

udn討論區

0 則留言
規範
  • 張貼文章或下標籤,不得有違法或侵害他人權益之言論,違者應自負法律責任。
  • 對於明知不實或過度情緒謾罵之言論,經網友檢舉或本網站發現,聯合新聞網有權逕予刪除文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
  • 對於無意義、與本文無關、明知不實、謾罵之標籤,聯合新聞網有權逕予刪除標籤、停權或解除會員資格。不同意上述規範者,請勿下標籤。
  • 凡「暱稱」涉及謾罵、髒話穢言、侵害他人權利,聯合新聞網有權逕予刪除發言文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。