這兩天,“80后死亡率已超70后”一說熱傳。據溯源,這一說法查無實據,最初來源很可能是與AI的對話。盡管AI明確標注了數據存在間接推算及估算的情況,但這條假消息還是被加上各種駭人標題在網上流布。這場烏龍再次引出一個問題:AI真的那么靠譜嗎?
學界頻頻提及的“AI幻覺”與“機器欺騙”,指的就是“AI會胡亂拼湊或虛構一些事實,讓其生成的內容顯得合理、自洽”。查閱相關公開資料不難發現,全球最先進的大模型,在試驗中也會出現一定的“幻覺率”。更關鍵的是,AI在呈現錯誤答案時仍看上去“非常自信且具有說服力”,很容易讓人信以為真。至于出現“AI幻覺”的原因,目前尚無定論,既有可能是AI在轉錄和翻譯海量數據時出現了偏差,也可能是其在“數據不足”時“急中生智”。
AI的能力確實在不斷超越人類的想象,但遠不能視之為“萬能”。除了生成內容的真實性、可靠性常常存疑,AI在創造力、想象力方面也相對“拉胯”。耶魯大學計算機科學家戴維·格勒恩特爾曾言:“除非能模擬人類情感的所有細微差別,否則任何計算機都不會有創造力。”從現實來看,AI在處理社會尚未形成共識的話題,或在預測某件事情的走向時會陷入困難。因而,在使用生成式AI這一工具時,我們不僅要對其生成信息多加辨別,更不能放棄思考,倘若指望其給觀點、定決策、下結論,很可能會被帶進溝里。
“就像一臺車沒有汽油走不了,數據就是AI發展的燃料”。確實,AI大模型的迭代發展離不開大體量優質數據“喂養”。數據從何而來?顯然是由人來生產與創造。據統計,“現實世界所能提供的用于訓練AI模型的數據幾乎已消耗殆盡”,且未來人類對高質量文本的需求量,遠超數據產生的速度。如若人類的大腦就此“躺平”,“訓練數據枯竭”的情況就會不斷加劇,最終要么是AI發展陷入停滯,要么是AI開始大規模自說自話,拿自己生成的似是而非的內容訓練自己,導致整條信息河流被持續污染。
人類從來都是在思考中迸發靈感,在試錯中革新向前,不少偉大的發明都是研究的“副產品”。可當AI提供了前往“正確答案”的“直通車”,不僅可能“挖空學習資源”,形成更加厚重的“信息繭房”,還可能反噬創新。近來,“腦腐”一詞頗為流行,當AI讓各類信息更加唾手可得,我們的內心世界是否會經歷一場更猛烈的“水土流失”?
未來已來,我們當然不能抱著“AI末日論”抵抗浪潮,但也不能盲目樂觀。相關方面應在遵從科技倫理、人本主義、法治理念等基礎上,不斷完善AI相關法規,力求價值引領與技術“糾錯”并行,最大程度爭取科技向善。于個人而言,也當保持好奇心,提升思辨力,讓AI成為我們最有力的工具之一而非“替代者”。(晁星)
編輯:譚鵬