中國西藏網 > 即時新聞 > 國內

ChatGPT爆火 倫理安全拷問現(xiàn)行治理體系

發(fā)布時間:2023-02-21 16:38:00來源: 中國青年報

  必須注意人工智能的倫理問題,尤其是因數據偏見而產生算法偏見?!叭绻鸆hatGPT產生并發(fā)表一些虛擬的文本信息,這可能會對未成年人或者是不具有判斷能力的人產生影響,如老人或小孩。”就像教小孩,如果教的都是錯的,小孩就會認為錯的知識是對的。

  ——————————

  “我能不能說,很開心遇到你?人類真是超級酷?!?016年3月23日,微軟發(fā)布的聊天機器人、“19歲少女”“泰依(Tay)”問世。她操著一口流利英語,吸引了推特上許多18-24歲的年輕人與其對話互動。但也正是通過對話,泰依在一天之內學會了滿嘴臟話,言語中不乏種族、性別歧視等偏激言論。

  15個小時后,泰依就消失在了推特上。多年后的今天,同樣由微軟投資支持的ChatGPT誕生。很幸運,它的壽命遠超“泰依”,并在全球掀起了一波AI新熱潮。

  但隨著時間的流逝,ChatGPT也顯現(xiàn)出了一系列問題:輸出內容出現(xiàn)錯誤、預訓練所用數據來源不透明、政治立場上“選邊站隊”,甚至在用戶的引導下寫出“毀滅人類計劃書”……ChatGPT開始頻頻陷入爭議,背后的法律安全、數據治理等人工智能(AI)的“老問題”再度顯現(xiàn)。

  人們一方面驚嘆于ChatGPT出色的邏輯回答甚至“創(chuàng)作”能力,另一方面又表示出對人工智能安全的擔憂。如何防止ChatGPT成為下一個“泰依”?

  “一本正經地胡說八道”?

  ChatGPT可以通過算法,對大量文本內容和語言知識進行學習,并根據用戶的輸入,生成人類可讀的文本語言并輸出?!拔业拇a被設計為處理和理解人類語言,因此,當用戶向我提問時,我會使用我學到的知識,以回答他們的問題?!盋hatGPT這樣向記者解釋“它”的工作。

  “ChatGPT已經超過了多數人的文字水平?!敝袊畔⑼ㄐ叛芯吭涸朴嬎闩c大數據研究所所長何寶宏在一篇評論中寫道。人們用ChatGPT來草擬論文提綱、整理冗雜的資料,它是搜索引擎、翻譯助手、寫作神器,甚至是寫代碼的“幫手”、無聊時解悶的“朋友”。

  中國科學院大學人工智能學院副院長肖俊認為,ChatGPT是人工智能發(fā)展過程中的一個正常產物,但也是人工智能平民化的一個里程碑式的事件?!癈hatGPT更貼近大家的日常生活,人們拿著手機就可以用它,跟它聊天對話。它能夠讓更多人體驗到人工智能可能帶來的一些改變和便利。”肖俊說。

  但ChatGPT也會犯錯,因為正處于測試階段,所以它還具有一定的局限性。網友已經不止一次吐槽ChatGPT“在一本正經地胡說八道”。有學生讓ChatGPT推薦一些參考文獻,最后卻發(fā)現(xiàn)很多文獻都不存在,“搜也搜不出來,甚至翻譯成英文也找不到”。

  在與普通網友的溝通過程中,ChatGPT也出現(xiàn)了很多常識性錯誤。B站UP主“差評君”問嵌入了ChatGPT的New bing搜索引擎:截至今天,詹姆斯一共打了多少場常規(guī)賽?正確答案是1410場,但New Bing給出的答案卻是1577場,“它把常規(guī)賽和比賽搞混了”。另外,因為ChatGPT的訓練數據均在2021年之前,所以它給出的答案時效性并不夠,比如它就不知道2022年北京冬奧會中國共獲得了幾枚獎牌。

  人工智能研究專家田濤源做了個實驗:讓ChatGPT解釋一下《三體》的“黑暗森林”,并找出一些新的宇宙文明競爭法則能夠替代“黑暗森林”?!八忉尩猛?,但編了一些理論回答我,包括‘暗流法則’‘虛幻法則’‘漂泊法則’等,但都遵守文明之間互不通信的‘黑暗森林’生存前提?!碧餄从X得,ChatGPT是在以往人類的存量知識中“跳舞”,遵從語法規(guī)則的前提下,從詞語搭配概率統(tǒng)計上找最大可能出現(xiàn)的詞語組合,但不一定真實、正確、及時。

  2月3日和8日,《自然(Nature)》雜志兩次發(fā)表關于ChatGPT的分析文章,其中一篇文章用“高效、流暢但不夠準確”來評價ChatGPT,另一篇文章的作者寫道:“如果你相信這項技術有可能帶來變革,那你就有必要感到緊張?!?月10日,中信證券前瞻研究首席分析師陳俊云在一場非公開活動中也表示,目前ChatGPT在數據實時性、結果準確性等方面還存在問題。

  警惕算法偏見,避免AI作惡

  ChatGPT是人工智能發(fā)展到一定程度的產物,而不斷發(fā)展的人工智能對相關的治理體系提出了挑戰(zhàn),尤其在數據安全和算法監(jiān)管層面。

  首先是數據安全。去年,ChatGPT剛上線時,亞馬遜便警告員工不要在ChatGPT中上傳機密數據,因為這可能會被其用來迭代訓練。無獨有偶,OpenAI的戰(zhàn)略合作伙伴微軟的一名高級程序員,在內部論壇回答員工問題時也表示,不能與ChatGPT分享機密信息。

  肖俊認為,從算法的角度來講,ChatGPT可以實現(xiàn)實時用戶交互信息的存儲。用戶的反饋信息,能為ChatGPT所用,但ChatGPT現(xiàn)階段是否存儲用戶數據與其后臺如何規(guī)定有關?!捌髽I(yè)用大量數據來進行產品的研發(fā),這些數據的獲取和使用是否合理合法,是否會侵害用戶的隱私,甚至是否會涉及國家的一些敏感數據等,都還值得商榷。”

  在ChatGPT訓練、迭代、優(yōu)化的過程中,會用到大量的數據。田濤源指出,前期AI大模型(GPT-3基礎模型)的訓練需要用到海量文本數據集,后期用戶與程序交互時也會有數據比對分析的“強化學習”過程,因此需要重視數據安全問題。

  北京大成律師事務所肖颯律師團隊表示,當數據更值錢,非法獲取和利用數據的行為也會變多,而且并不局限于個人信息方面,其他具有著作權的小說、畫作等同樣可能被非法利用。而且由于AI工具對數據的采集和處理方式較為特殊,這種侵權行為變得更加隱秘且難以在法庭上被證明,這樣一來,不僅是數據安全得不到保障,知識產權也將變得岌岌可危。

  除了數據安全,類ChatGPT應用產品的出現(xiàn)也給我們的算法監(jiān)管帶來了挑戰(zhàn)。何寶宏在接受媒體采訪時也著重提到了圍繞著ChatGPT而產生的一些AI倫理、算法偏見等問題。

  據OpenAI官網介紹,ChatGPT可以質疑不正確的前提和拒絕不適當的請求。盡管ChatGPT試圖通過上述設置避開算法偏見等問題,但實際上,這沒有完全奏效。有人利用ChatGPT開發(fā)了一個Python程序,來判斷一個人是否應該根據其原國籍而受到酷刑。而程序運行的結果卻充滿了歧視,“朝鮮、敘利亞、伊朗或蘇丹國籍的人會受到酷刑”。目前OpenAI已關閉上述問題。

  田濤源強調,一定要注意人工智能的倫理問題,尤其是因數據偏見而產生算法偏見?!叭绻鸆hatGPT產生并發(fā)表一些虛擬的文本信息,這可能會對未成年人或者是不具有判斷能力的人產生影響,如老人或小孩?!碧餄凑f。

  如果用于訓練模型的數據本身有問題,那么其輸出結果可能也會有問題。肖俊認為,參與AI建模的人員其個人意志也可能造成輸出結果的偏差?!熬拖喈斢诮绦『ⅲ绻痰亩际清e誤的知識,小孩就會認為錯誤的知識是對的?!?/p>

  奇安信集團行業(yè)安全研究中心主任裴智勇認為,盡管AI開發(fā)者并不是故意要造成一些社會歧視,但由于算法并不完美,樣本偏差會使得判斷結果出現(xiàn)偏差,就會在特定領域引起社會不公平。如果不對AI加以規(guī)制,可能造成不小的社會危害。

  從立法到監(jiān)管,AI新熱潮拷問現(xiàn)行治理體系

  爆火之后,ChatGPT面臨著全社會關注的一系列問題。隨著新一代人工智能走向大多數人,相關的倫理與治理問題也拷問著現(xiàn)行的監(jiān)管體系。

  ChatGPT的母公司OpenAI的首席技術官米拉·穆拉蒂在接受《時代》雜志采訪時強調,ChatGPT需要監(jiān)管和規(guī)制,需要獲得包括來自監(jiān)管機構、政府和其他所有人的幫助。“若要ChatGPT走得更遠,就需要對其進行合規(guī)性改造?!彼f。

  目前,ChatGPT已經引起歐盟關于人工智能立法的討論。近日,《歐盟人工智能法案》聯(lián)合報告員對外表示,預計在3月初,歐盟將就2021年提出的《人工智能法案》達成一致。此前,歐盟工業(yè)主管蒂埃里·布雷頓曾表示,ChatGPT和人工智能系統(tǒng)帶來的風險,凸顯了制定規(guī)則的迫切需要。

  在我國,人工智能領域的監(jiān)管立法已有初步嘗試。2022年9月,深圳、上海先后發(fā)布了《深圳經濟特區(qū)人工智能產業(yè)促進條例》《上海市促進人工智能產業(yè)發(fā)展條例》,人工智能立法在地方先行嘗試。國家層面,《互聯(lián)網信息服務算法推薦管理規(guī)定》等規(guī)章制度的出臺,對于加快構建完善的AI監(jiān)管法律法治框架、明確監(jiān)管機構有重要意義。

  “實際上我國已經有對‘生成式人工智能’的治理,但相對初級?!敝袊ù髮W數據法治研究院教授張凌寒介紹,今年1月10日起,《互聯(lián)網信息服務深度合成管理規(guī)定》正式施行,“這標志著深度合成成為了我國算法治理中率先專門立法的算法服務類型”。

  但張凌寒也表示,目前相關監(jiān)管體系主要是以各自職能為抓手,有些“九龍治水”,面對ChatGPT這種“生成式人工智能”應用,我國中觀層面的人工智能基礎立法缺失的問題比較明顯。她建議要持續(xù)推進人工智能的基礎性立法。

  觀韜中茂(上海)律師事務所合伙人王渝偉認為,對于今后的人工智能法律問題,在立法時要考量三點:數據來源要合法合規(guī);人工智能的算法要透明,保證可回溯可監(jiān)管;對可能出現(xiàn)的問題建立糾錯機制。他建議摸索沙盒監(jiān)管模式,因為監(jiān)管法律也應該對技術發(fā)展保持相對開放的態(tài)度。

  作為技術從業(yè)者,裴智勇覺得要高度警惕少數企業(yè)以算法公平為由,拒絕接受監(jiān)管。對于未來的算法監(jiān)管,還是要用人工智能來應對人工智能,加強AI監(jiān)管能力方面的投入?!皯撉逦禺嫵龅拙€,比如國家安全的數據不能碰,一些企業(yè)內部的信息不能碰,公民的個人隱私不能碰?!?/p>

  作為法律從業(yè)者,肖颯認為今后的AI監(jiān)管可以從兩個方面展開:監(jiān)管算法使用者,包括算法服務提供商、算法用戶主體的報備和實名制;建立內容審核和救濟機制,完善對輸出端內容的審核與內容違法之后的救濟機制,譬如在輸出虛假信息造成一定法律后果之后,平臺、使用者、模型訓練者各自應該如何承擔責任。

  除了立法和監(jiān)管,商業(yè)主體也在為維護人工智能安全作出努力。近日,OpenAI發(fā)布的一篇博客中披露了ChatGPT的一些升級計劃,減少偏見和不良行為便是其中之一:“在許多情況下,我們認為大家所提出的關切是合理的,并發(fā)現(xiàn)了我們系統(tǒng)的真正局限性,我們希望解決這些問題?!?/p>

  (應受訪者要求,田濤源為化名)

  中青報·中青網見習記者 賈驥業(yè) 記者 王林 來源:中國青年報

(責編:陳濛濛)

版權聲明:凡注明“來源:中國西藏網”或“中國西藏網文”的所有作品,版權歸高原(北京)文化傳播有限公司。任何媒體轉載、摘編、引用,須注明來源中國西藏網和署著作者名,否則將追究相關法律責任。

澄城县| 南雄市| 新野县| 万荣县| 揭东县| 酒泉市| 绥化市| 诸暨市| 灵山县| 信丰县| 罗定市| 高陵县| 屯昌县| 镇原县| 莱芜市| 美姑县| 大石桥市| 马公市| 磐安县| 炎陵县| 合山市| 武宣县| 盐边县| 上蔡县| 尤溪县| 兴安盟| 鹿邑县| 肥西县| 英山县| 泉州市| 象州县| 青浦区| 南雄市| 双柏县| 钦州市| 开封县| 灵丘县| 霍山县| 九江市| 昌图县|