據(jù)新華社北京10月28日電 近日,美國斯坦福大學(xué)研究人員策劃了全球首個(gè)以人工智能(AI)為核心作者與論文評(píng)審的線上開放會(huì)議。主辦方稱,此次會(huì)議旨在創(chuàng)建一個(gè)“相對(duì)安全的試驗(yàn)場(chǎng)”,探索AI是否及如何能獨(dú)立產(chǎn)生新穎的科學(xué)見解、假設(shè)與方法論等。
如今,AI已成為我們工作生活的好幫手,但它同時(shí)也在提供一種“認(rèn)知捷徑”,讓人們不用費(fèi)力思考便能得到想要的答案。一開始只是查詢信息、翻譯文字,慢慢開始利用AI輔助寫郵件、工作總結(jié)、研究論文,甚至進(jìn)行重要決策……過度依賴AI,利用其進(jìn)行“思維外包”,有可能讓我們?nèi)諠u喪失思維的主導(dǎo)權(quán)。

9月25日,聯(lián)合國舉行啟動(dòng)“人工智能治理全球?qū)υ挕睓C(jī)制高級(jí)別會(huì)議。聯(lián)合國秘書長(zhǎng)古特雷斯致辭說,這是全球聚焦這一變革性技術(shù)的主要平臺(tái)。(新華社記者李睿攝)
人機(jī)共生時(shí)代,人類如何保持獨(dú)立思考呢?
AI“思維外包”藏隱憂
正如上述會(huì)議所探討的,大模型、智能體等AI應(yīng)用已在包括科研在內(nèi)的多領(lǐng)域廣泛賦能人類生產(chǎn)生活,促進(jìn)學(xué)術(shù)研究和生產(chǎn)生活提質(zhì)增效,但其帶來的技術(shù)紅利之下也暗藏隱憂。一些新研究顯示,過度依賴AI模型或可引發(fā)“AI腦霧”,削弱工作動(dòng)力。

9月25日,一名觀眾在德國柏林國際消費(fèi)電子展上與人形機(jī)器人握手。(新華社記者張豪夫攝)
美國麻省理工學(xué)院研究顯示,長(zhǎng)期使用AI會(huì)導(dǎo)致認(rèn)知能力下降。研究人員對(duì)受試者展開腦電圖掃描后發(fā)現(xiàn),與沒有使用AI工具的人相比,長(zhǎng)期使用AI大語言模型的人大腦神經(jīng)連接數(shù)降低,影響語言和行為等層面。微軟和卡內(nèi)基-梅隆大學(xué)的研究也有類似發(fā)現(xiàn),生成式AI會(huì)削弱批判性思維能力,導(dǎo)致過度依賴,可能削弱人們獨(dú)立解決問題的能力。
研究人員認(rèn)為,開發(fā)者在設(shè)計(jì)生成式AI工具時(shí),應(yīng)有支持用戶提升批判性思維的意識(shí),如提示需驗(yàn)證的場(chǎng)景。特別是在設(shè)計(jì)法律文書、醫(yī)療建議等高風(fēng)險(xiǎn)任務(wù)時(shí),應(yīng)強(qiáng)制彈出驗(yàn)證提醒(如“請(qǐng)核對(duì)AI引用的法規(guī)條款”)等,標(biāo)注潛在風(fēng)險(xiǎn),打破用戶對(duì)AI“全知全能”的認(rèn)知偏差。
浙江大學(xué)管理學(xué)院吳蘇青團(tuán)隊(duì)今年在英國《科學(xué)報(bào)告》雜志發(fā)表的研究還顯示,AI的應(yīng)用帶來認(rèn)知需求的“空心化”。當(dāng)AI完成工作的“燒腦”部分,人類僅剩機(jī)械性執(zhí)行,工作淪為“被動(dòng)填空”,就可能會(huì)導(dǎo)致心理疏離,喪失工作動(dòng)力。這就要求企業(yè)、政府部門等部署AI時(shí)要“慢下腳步”,可先小范圍試點(diǎn)、可控推進(jìn),邊用邊觀察對(duì)員工積極性和創(chuàng)造力的影響。
人們?yōu)楹巍拜p信”AI
人們之所以愈加依賴AI,源自于近年來AI專業(yè)化能力和交互便捷性的飛躍:其生成內(nèi)容的專業(yè)化程度,讓不少人把它奉為專家,而對(duì)話式的交互方式讓它好似一位學(xué)識(shí)淵博又無話不談的“好友”,更易讓人形成心理依賴和信任。
如今,AI大模型“開箱即用”的便捷性,進(jìn)一步降低了使用門檻。由于缺乏基本的AI素養(yǎng)教育,使用者對(duì)AI本身的技術(shù)缺陷認(rèn)知不足,更容易“輕信”。英國高等法院今年6月就要求律師采取緊急行動(dòng),防止AI被濫用,原因是數(shù)份可能由AI生成的虛假案例引用被提交至法庭。而今年由美國衛(wèi)生與公眾服務(wù)部牽頭,“讓美國再次健康”委員會(huì)發(fā)布的兒童慢性病報(bào)告也因使用了生成式AI內(nèi)容而出現(xiàn)重大引用錯(cuò)誤。

3月31日,在德國漢諾威工業(yè)博覽會(huì)上,一名參觀者通過VR設(shè)備在虛擬世界中拋擲物品。(新華社記者張帆攝)
荷蘭阿姆斯特丹大學(xué)研究人員詹姆斯·皮爾遜說,AI顯著推動(dòng)了科研進(jìn)程,如可用于繪制蛋白質(zhì)結(jié)構(gòu)、研發(fā)新型抗生素,還能加快文獻(xiàn)綜述等環(huán)節(jié)的進(jìn)度等。但當(dāng)AI產(chǎn)生的“幻覺”出現(xiàn)在論文評(píng)審或研究中時(shí)十分令人擔(dān)憂,AI還可能帶有其訓(xùn)練數(shù)據(jù)中蘊(yùn)含的偏見,進(jìn)而加劇種族、性別等不平等問題。
“我們?cè)谑褂肁I的同時(shí),把判斷力也一起外包了,不再去驗(yàn)證AI給出的答案,不再去反思使用AI的過程。無條件接受AI給的任何信息,就會(huì)導(dǎo)致人的主觀能動(dòng)性下降,深度的閱讀思考和表達(dá)能力也會(huì)隨之退化?!笨苹米骷?、中國作協(xié)科幻文學(xué)委員會(huì)副主任陳楸帆接受新華社記者采訪時(shí)說。
建立思維的“AI緩沖帶”
未來,AI一定會(huì)更加深度嵌入我們的工作生活。在這個(gè)人機(jī)共生的新時(shí)代,與AI共處需要更智慧。美國AI教育公司Section 4首席執(zhí)行官格雷格·肖夫預(yù)測(cè),未來10年,使用AI的知識(shí)型勞動(dòng)者將分化為兩類群體:“AI乘客”與“AI駕馭者”。
“AI乘客”欣然將自身認(rèn)知工作全權(quán)交由AI打理,短期內(nèi)或因工作效率提升而獲得認(rèn)可。但隨著AI能力的迭代,這些人終將被AI取代。而“AI駕馭者”則堅(jiān)持主導(dǎo)AI的運(yùn)作,把AI生成的內(nèi)容當(dāng)作初稿,對(duì)結(jié)果嚴(yán)格核查,有時(shí)還會(huì)關(guān)閉AI獨(dú)立思考。
“我們需要在不同的學(xué)習(xí)和工作場(chǎng)景里,學(xué)會(huì)分辨哪些場(chǎng)景適合用AI,哪些場(chǎng)景需要人來進(jìn)行有利輔助,判斷和辨別AI給出的結(jié)果?!标愰狈滞瑯佑^點(diǎn)。在他看來,人們應(yīng)對(duì)自己的心智、認(rèn)知掌握主動(dòng)權(quán),有意識(shí)地建立一個(gè)“AI緩沖帶”,即面對(duì)新問題,先從自己的角度給出答案,再尋求AI的深化和擴(kuò)充。
“我們甚至還可進(jìn)行‘對(duì)抗性生成’,即當(dāng)AI給出跟自己觀點(diǎn)十分契合的答案時(shí),應(yīng)有批判性思維去質(zhì)疑,到底是我被AI所影響,還是AI在我的不斷訓(xùn)練下,變得越來越趨同?我們是否能跳出思維慣性作出不一樣的選擇,給出AI沒想到的答案。”他說。(記者彭茜)
編輯 毛天宇
