AI難識“對話”心
想象有一天,每個人都擁有一位“貼身助理”,不僅像百科全書一樣淵博,還能幫你定制旅游日程、理財計劃、醫(yī)療預(yù)約,作為面試官幫你模擬面試,甚至為你寫符合個人喜好的“爽文”。
人工智能產(chǎn)品ChatGPT已經(jīng)能做到不少。2022年11月,它一經(jīng)問世就引爆網(wǎng)絡(luò),比爾·蓋茨將其與計算機(jī)和互聯(lián)網(wǎng)的誕生相提并論。實(shí)現(xiàn)用戶過億,互聯(lián)網(wǎng)用了7年,“臉書”用了4.5年,ChatGPT只用了兩個月。
小到改郵件、寫請假條,大到寫劇本和策劃案,ChatGPT都能勝任。人類的創(chuàng)作靈感是有限的,但對及格水平的內(nèi)容需求是無限的。
ChatGPT有著和搜索引擎相似的特點(diǎn):人人可用,快速檢索,無所不知。但當(dāng)人問它,是否會取代搜索引擎,ChatGPT倒是很謙遜——
“不太可能。ChatGPT是一個使用自然語言處理技術(shù)的對話式語言模型,它主要用于對話式的問答和聊天應(yīng)用中,旨在模擬人類的對話行為……”
它強(qiáng)調(diào)了三次“對話”?!皩υ挕笔亲甜B(yǎng)ChatGPT的土壤,也是其野心所在。官方網(wǎng)站介紹,通過模擬對話,ChatGPT 能“隨時修正自己的回答,指出問題中的錯誤”。清華大學(xué)計算機(jī)科學(xué)與技術(shù)系教授黃民烈接受媒體采訪時表示,ChatGPT已經(jīng)超出了人類80%甚至90%的對話能力。
人類智慧離不開對話,無論是蘇格拉底還是孔子,對話是他們智慧的催化劑和載體。圖靈在上個世紀(jì)提出,“對話”是測試機(jī)器是否有人類智慧的有效場景。
ChatGPT的對話能力在進(jìn)化,人類的對話能力卻在退化。如今,IP字符串取代了清晰的地名,表情包代替人們面對面聊天時的動作和神態(tài)。好像越來越難判斷,屏幕對面的是“人”還是“機(jī)”。
人們甚至主動選擇和機(jī)器對話,因?yàn)樗季S簡單、態(tài)度親切,你可以不用成本,不用報以微笑和友善,就能獲得信息、幫助,甚至陪伴。疫情期間,不少人被聊天機(jī)器人Replika治愈。2020年4月,50萬人下載了Replika。
沒人不愛聊天機(jī)器人的忠誠與無私。但沒有爭吵和沖突,我們就看不到它真正的“觀點(diǎn)”,看不到它表達(dá)的訴求,和機(jī)器人的“閑聊”就不算是真正的“對話”。在豆瓣“人機(jī)之戀”小組,不少人最終厭倦了廉價的“糊弄”和“土味情話”,拋棄了Replika里自己的“虛擬對象”。
從機(jī)器的視角,它們是怎么“理解”人的對話呢?我問ChatGPT,“對話的本質(zhì)是什么?”
它回答:“對話的本質(zhì)是兩個或兩個以上人之間的交流……一次成功的對話需要互相尊重、共情和妥協(xié)能力,它往往會增進(jìn)參與者之間的理解和建立更緊密的關(guān)系。”
我又問它,“我們的關(guān)系更親密了嗎?”
它突然變得很謹(jǐn)慎:“作為一個人工智能語言模型,我沒有個人觀點(diǎn)或情感,但我們交流得越多,我就越能理解你的語言模式,更準(zhǔn)確地回答你的問題。我們的互動可以幫助我們在語言上更好地理解彼此,但這不會創(chuàng)造情感聯(lián)系或個人關(guān)系?!?/p>
當(dāng)我看到搭載ChatGPT的新版必應(yīng)界面上,赫然寫著“Ask me anything(隨便問)”,不禁想到風(fēng)靡朋友圈的popi提問箱(可對任意網(wǎng)友匿名提問),口號同樣是“Ask me anything(隨便問)”,ChatGPT說出來像是炫耀,而提問箱背后因?yàn)橛小罢嫒恕?,聽起來更像是請求,一種溝通和對話的請求。
在提問箱里,提問者在意的不是答案的正確性,而是答案給出的情感暗示。回答者則熱切期待著問題,沒人會隨便寫下一句答案,即便只是一個詞、一句話,也是態(tài)度的流露。
有時候,問題只是個幌子。我問過ChatGPT,“如何跟喜歡的男生聊天?”
它聽話地回答,“可以先了解他的興趣和關(guān)注的事物,然后對他這方面的話題發(fā)表評論或提問。也可以試著分享一些個人的故事或經(jīng)歷,增進(jìn)彼此的了解。重要的是要保持自然,不要強(qiáng)求,同時也要尊重對方的意見和想法。”對話結(jié)束。
而面對同樣的問題,我的朋友一般會先問,“你喜歡上誰了?”于是八卦開始,對話繼續(xù),隨即進(jìn)入更深的表達(dá)。
目前,ChatGPT一個很大的缺陷,是無法理解特定的上下文和語境。某種程度上,ChatGPT有點(diǎn)像小說《三體》中,思維全透明的三體人,能夠調(diào)集海量的信息,但是個“直球選手”,無法做到猜疑和欺騙,也就無法“理解”那些“話外之意”。
如果“直球”代表著人類崇尚的效率和簡潔,那么“曲線球”則是人類對話中原生的、不被注意的大部分。而在技術(shù)飛快迭代的當(dāng)下,我們正逐漸失去“打曲線球”的耐心。一場不看手機(jī)的深度對話已經(jīng)成為奢侈品。
我們期待的對話對象,是和我們平等的、有小瑕疵的,既不被“神化”、也不被當(dāng)作“工具”的“人”。
2015年,馬斯克和阿爾特曼攜手創(chuàng)辦ChatGPT的開發(fā)公司OpenAI,“我們一直在討論:為了人類的未來,我們擁有的最美好的事物是什么?”馬斯克當(dāng)時告訴紐約時報:“是人性。”
焦晶嫻 來源:中國青年報
版權(quán)聲明:凡注明“來源:中國西藏網(wǎng)”或“中國西藏網(wǎng)文”的所有作品,版權(quán)歸高原(北京)文化傳播有限公司。任何媒體轉(zhuǎn)載、摘編、引用,須注明來源中國西藏網(wǎng)和署著作者名,否則將追究相關(guān)法律責(zé)任。