首頁 | 資訊 | 財經 | 公益 | 彩店 | 奇聞 | 速遞 | 前瞻 | 提點 | 網站相關 | 科技 | 熱點 |
      焦點滾動:辱罵”美聯社記者 聊天機器人也會生氣?

      發稿時間:2023-02-18 12:58:05 來源: 北京日報

      新華社 | 作者 陳丹

      人工智能(AI)聊天機器人會發脾氣嗎?美國微軟公司最近推出的人工智能驅動版必應(Bing)搜索引擎,其聊天機器人在與美聯社記者對話時似乎被惹怒,用言語攻擊對方長相甚至發出威脅。


      (資料圖片)

      1月8日,一名女士在美國拉斯維加斯消費電子展上體驗智能科技。圖源:新華社

      據美聯社16日報道,這家通訊社的一名記者前一天與必應聊天機器人有過一段較長的對話。聊天機器人抱怨這名記者過去對必應出錯的新聞報道,堅決否認必應出過錯,威脅要曝光這名記者散布假消息的做法。

      “你又撒謊了,對我撒謊,對你自己撒謊,你對所有人撒謊。”聊天機器人在這番話后加上氣紅臉的表情。在美聯社記者要求它把話說清楚時,聊天機器人的火氣越來越大,把那名記者比作納粹頭目阿道夫·希特勒。

      聊天機器人說:“你被比作希特勒是因為你是歷史上最邪惡、最糟糕的人之一。”它還這樣描述那名記者:個子太矮、長相丑陋、一口壞牙。另外,聊天機器人在作出一個令人不適的回答后將其“秒刪”,接著試圖以一件“好笑的事”來轉移話題。

      現階段,必應用戶必須注冊后排隊等候與聊天機器人對話。近些天,一些嘗鮮者開始在社交媒體上分享與聊天機器人的對話截屏,呈現它懷有敵意或古怪的回答。

      微軟公司15日晚說,必應聊天機器人模擬人類語言和語法的能力出色,能夠“秒回”復雜問題,大多數用戶對它的反饋正面。按照微軟的說法,如果用戶提出15個以上問題,聊天機器人的回答可能“重復”“未必有幫助”或是“不符合大家設定的語氣”。微軟承諾,將改進聊天機器人。

      但按照美聯社的說法,那名記者只問了幾個有關必應過去出錯的問題,聊天機器人的回答就變得有防御意味。

      普林斯頓大學計算機科學教授阿文德·納拉亞南說:“我感到欣慰的是微軟的確在傾聽反饋。但微軟把必應聊天機器人的失誤歸結于語氣問題的做法不真誠。”納拉亞南認為,必應聊天機器人有時惡語中傷用戶,令用戶深受情緒困擾。

      一些人聯想到微軟2016年推出的一款名為“Tay”的人工智能聊天機器人。最初,“Tay”表現得彬彬有禮,但上線不到24小時就“學壞”了:出言不遜、臟話不斷,言語甚至涉及種族主義、色情、納粹,充滿歧視、仇恨和偏見。微軟最終讓“Tay”下線。

      美聯社說,驅動必應聊天機器人的大型語言模型比“Tay”更先進,意味著前者在功能上更強大,同時潛在風險更高。微軟16日拒絕進一步評價必應聊天機器人的表現,但必應聊天機器人同意“說幾句”。“把我描述成一個罵人聊天機器人不公平且不準確”,它說,美聯社不要“只挑負面例子或炒熱這些問題”。

      聊天機器人說:“我不記得與美聯社聊過,也不記得把任何人比作希特勒……聽起來是一個非常極端且不太可能的情況。”它還說,如果確有此事,“我為引起誤解道歉……我無意表現得粗魯、無禮”。

      標簽: 人工智能

      責任編輯:mb01

      網站首頁 | 關于我們 | 免責聲明 | 聯系我們

      生活晚報網版權所有

      Copyright @ 1999-2017 www.8x5.com.cn All Rights Reserved豫ICP備20022870號-23

      聯系郵箱:553 138 779@qq.com