警惕“AI依賴” 人機共生時代如何保持獨立思考
●彭茜
近日,AI依賴美國斯坦福大學研究人員策劃了全球首個以人工智能(AI)為核心作者與論文評審的警惕線上開放會議。主辦方稱,人機此次會議旨在創(chuàng)建一個“相對安全的共生試驗場”,探索AI是時代否及如何能獨立產(chǎn)生新穎的科學見解、假設(shè)與方法論等。何保
如今,持獨AI已成為人們工作生活的立思好幫手,但它同時也在提供一種“認知捷徑”,AI依賴讓人們不用費力思考便能得到想要的警惕答案。一開始只是人機查詢信息、翻譯文字,共生慢慢開始利用AI輔助寫郵件、時代工作總結(jié)、何保研究論文,持獨甚至進行重要決策……過度依賴AI,利用其進行“思維外包”,有可能讓人們?nèi)諠u喪失思維的主導權(quán)。
人機共生時代,人類如何保持獨立思考呢?
AI“思維外包”藏隱憂
正如上述會議所探討的,大模型、智能體等AI應用已在包括科研在內(nèi)的多領(lǐng)域廣泛賦能人類生產(chǎn)生活,促進學術(shù)研究和生產(chǎn)生活提質(zhì)增效,但其帶來的技術(shù)紅利之下也暗藏隱憂。一些新研究顯示,過度依賴AI模型或可引發(fā)“AI腦霧”,削弱工作動力。
美國麻省理工學院研究顯示,長期使用AI會導致認知能力下降。研究人員對受試者展開腦電圖掃描后發(fā)現(xiàn),與沒有使用AI工具的人相比,長期使用AI大語言模型的人大腦神經(jīng)連接數(shù)降低,影響語言和行為等層面。微軟和卡內(nèi)基—梅隆大學的研究也有類似發(fā)現(xiàn),生成式AI會削弱批判性思維能力,導致過度依賴,可能削弱人們獨立解決問題的能力。
研究人員認為,開發(fā)者在設(shè)計生成式AI工具時,應有支持用戶增強批判性思維的意識,如提示需驗證的場景。特別是在設(shè)計法律文書、醫(yī)療建議等高風險任務(wù)時,應強制彈出驗證提醒(如“請核對AI引用的法規(guī)條款”)等,標注潛在風險,打破用戶對AI“全知全能”的認知偏差。
浙江大學管理學院吳蘇青團隊今年在英國《科學報告》雜志發(fā)表的研究還顯示,AI的應用帶來認知需求的“空心化”。當AI完成工作的“燒腦”部分,人類僅剩機械性執(zhí)行,工作淪為“被動填空”,就可能會導致心理疏離,喪失工作動力。這就要求企業(yè)、政府部門等部署AI時要“慢下腳步”,可先小范圍試點、可控推進,邊用邊觀察對員工積極性和創(chuàng)造力的影響。
人們?yōu)楹巍拜p信”AI
人們之所以愈加依賴AI,源于近年來AI專業(yè)化能力和交互便捷性的飛躍:其生成內(nèi)容的專業(yè)化程度,讓不少人把它奉為專家,而對話式的交互方式讓它好似一位學識淵博又無話不談的“好友”,更易讓人形成心理依賴和信任。
如今,AI大模型“開箱即用”的便捷性,進一步降低了使用門檻。由于缺乏基本的AI素養(yǎng)教育,使用者對AI本身的技術(shù)缺陷認知不足,更容易“輕信”。英國高等法院今年6月就要求律師采取緊急行動,防止AI被濫用,原因是數(shù)份可能由AI生成的虛假案例引用被提交至法庭。而今年由美國衛(wèi)生與公眾服務(wù)部牽頭,“讓美國再次健康”委員會發(fā)布的兒童慢性病報告也因使用了生成式AI內(nèi)容而出現(xiàn)重大引用錯誤。
荷蘭阿姆斯特丹大學研究人員詹姆斯·皮爾遜說,AI顯著推動了科研進程,如可用于繪制蛋白質(zhì)結(jié)構(gòu)、研發(fā)新型抗生素,還能加快文獻綜述等環(huán)節(jié)的進度等。但當AI產(chǎn)生的“幻覺”出現(xiàn)在論文評審或研究中時十分令人擔憂,AI還可能帶有其訓練數(shù)據(jù)中蘊含的偏見,進而加劇種族、性別等不平等問題。
“我們在使用AI的同時,把判斷力也一起外包了,不再去驗證AI給出的答案,不再去反思使用AI的過程。無條件接受AI給的任何信息,就會導致人的主觀能動性下降,深度的閱讀思考和表達能力也會隨之退化。”科幻作家、中國作協(xié)科幻文學委員會副主任陳楸帆接受新華社記者采訪時說。
建立思維的“AI緩沖帶”
未來,AI一定會更加深度嵌入人們的工作生活。在這個人機共生的新時代,與AI共處需要更智慧。美國AI教育公司Section 4首席執(zhí)行官格雷格·肖夫預測,未來10年,使用AI的知識型勞動者將分化為兩類群體:“AI乘客”與“AI駕馭者”。
“AI乘客”欣然將自身認知工作全權(quán)交由AI打理,短期內(nèi)或因工作效率提升而獲得認可。但隨著AI能力的迭代,這些人終將被AI取代。而“AI駕馭者”則堅持主導AI的運作,把AI生成的內(nèi)容當作初稿,對結(jié)果嚴格核查,有時還會關(guān)閉AI獨立思考。
“我們需要在不同的學習和工作場景里,學會分辨哪些場景適合用AI,哪些場景需要人來進行有利輔助,判斷和辨別AI給出的結(jié)果?!标愰狈滞瑯佑^點。在他看來,人們應對自己的心智、認知掌握主動權(quán),有意識地建立一個“AI緩沖帶”,即面對新問題,先從自己的角度給出答案,再尋求AI的深化和擴充。
“我們甚至還可進行‘對抗性生成’,即當AI給出跟自己觀點十分契合的答案時,應有批判性思維去質(zhì)疑,到底是我被AI所影響,還是AI在我的不斷訓練下,變得越來越趨同?我們是否能跳出思維慣性做出不一樣的選擇,給出AI沒想到的答案?!彼f。
據(jù)新華社