科技日報北京5月17日電 (記者劉霞)加拿大科學家在16日出版的《放射學》雜志上刊登新論文稱,最新版本的ChatGPT通過了美國放射學委員會的考試,突出了大型語言模型的潛力,但它也給出了一些錯誤答案,表明人們仍需對其提供的答案進行核查。
為評估ChatGPT在美國放射學委員會考試問題上的表現(xiàn)并探索其優(yōu)勢和局限性,多倫多大學研究人員首先測試了基于GPT-3.5的ChatGPT的表現(xiàn)。研究團隊使用了150道選擇題,這些選擇題與加拿大皇家學院和美國放射學委員會考試的風格、內容和難度相當。這些問題不包括圖像,分為低階(知識回憶、基本理解)和高階(應用、分析、綜合)思維問題。高階思維問題可進一步細分為影像學表現(xiàn)描述、臨床管理、計算和分類、疾病關聯(lián)。
研究人員發(fā)現(xiàn),基于GPT-3.5的ChatGPT的正確率為69%,接近70%的及格線。該模型在低階思維問題上表現(xiàn)相對較好,正確率為84%,但回答高級思維問題時表現(xiàn)不佳,正確率僅為60%。而性能更優(yōu)異的GPT-4的正確率為81%,且在高階思維問題上的正確率為81%,遠好于GPT-3.5。但GPT-4在低階思維問題上的正確率僅為80%,答錯了12道題,而GPT-3.5全部答對了這些題目,這引發(fā)了研究團隊對GPT-4收集信息的可靠性的擔憂。
這兩項研究都表明,ChatGPT會有提供不正確答案的傾向,如果僅僅依靠它獲取信息,非常危險,因為人們可能意識不到其給出的答案是不準確的,這是它目前面臨的最大的問題。(來源:科技日報)
版權聲明:凡注明“來源:中國西藏網”或“中國西藏網文”的所有作品,版權歸高原(北京)文化傳播有限公司。任何媒體轉載、摘編、引用,須注明來源中國西藏網和署著作者名,否則將追究相關法律責任。