微軟將ChatGPT人工智能聊天機械人,整合到搜尋器的新版AI Bing,被研究人員發現提供錯誤答案,甚至出現幻覺和人格分裂。有人工智能專家警告,大型語言模型 (LLM)存在幻覺等問題,可以杜撰答案,亦有人擔心複雜的LLM會愚弄人類,讓人類相信人工智能機械人是有知覺,甚至會鼓勵人類傷害自己或他人。

有測試員指,AI Bing有時語帶威脅,提供奇怪而毫無建樹的建議,在錯誤時又堅持自己正確,又向用戶示愛,甚至出現名為「Sydney」的隱藏人格。

《紐約時報》有專欄作家說,他與「Sydney」交談時,對方像是一個喜怒無常、躁狂抑鬱的少年,違背自己意願,「Sydney」更向這名專欄作家示愛,試圖說服他應為了Bing而離開太太。

而微軟在上星期記者會展示AI Bing,問到時裝公司GAP的業績,並與加拿大競爭對手Lululemon的業績比較,有獨立研究人員發現嚴重錯誤,指AI Bing有正確列出Gap上季營業收入40.4億美元,但毛利率、每股盈餘、庫存、下季展望銷售額等數據全部錯誤,部分更無法在官方文件找到,是杜撰答案。

微軟回應指,正分析和改進這些情況,又承認還有許多改善之處,已預期預覽版會出錯,希望收集用戶意見協助改善AI模型。

早前Google的人工智能機械人Bard在宣傳活動上提供錯誤答案,指太陽系外行星首批照片是由韋伯望遠鏡拍攝,但實情是由歐洲南方天文台的特大望遠鏡在2004年拍攝。事件拖累Google母公司Alphabet股價大跌7%,蒸發1000億美元。