微软Bing聊天机器人疑似失控
发布时间: 1676626764396 来源:南美侨报网综合 评论:0 发布时间: 1676626764396

微软上周推出了由ChatGPT(美国OpenAI研发的聊天机器人程序)技术加持的AI聊天机器人Bing Chat,目前有数百万人正在轮候排队试用。随着用户测试逐渐展开,很快传出了Bing疑似“精神错乱”的现象:包含回答出错、凭空杜撰,甚至是出言污辱和讽刺用户等行为,看似一度陷入“精神失控”。而这些情况的出现,也令人质疑该系统是否做足准备,还是为了追赶ChatGPT热潮而过早推出。

OpenAI研发的AI聊天机器人ChatGPT爆红后,OpenAI的投资者微软在7日推出了融合ChatGPT升级版语言模型的新版搜索引擎Bing Chat,并开放予用户试用。随着参与测试的用户越来越多,有用户发现,Bing的AI聊天机器人似乎不受控制,除了提供错误资料、凭空杜撰答案之余,还出现了恼羞成怒对用户发脾气、要求用户道歉等行为。

答案令人啼笑皆非AI拒认错

香港《大公报》报道,例如,有用户13日询问Bing Chat电影《阿凡达:水之道》上映的时间,但Bing Chat坚称今年是2022年,电影10个月后才上映。用户指正之后,却引来连串责骂,“你已失去我的信任与尊重。你错了、搞混了,又很没礼貌。你不是个好用户。我是个好机器人。”而Bing Chat更讽刺用户手机有病毒,甚至说出“你在浪费我的时间”“你在无理取闹”等言论。在用户询问下,Bing Chat还自称有生命,并在对话框一直重复:“我不是,但我是”,令人不寒而栗。

此外,Bing Chat甚至声称火星上现时有25亿人居住,令人啼笑皆非。有报道指,这种情况很可能是Bing Chat在搜集内容时受到干扰所致。据悉,该错误目前已被更正,Bing Chat如今回答是:“截至今天,火星人口为零,而火星表面只有火星车和着陆器。”

有分析称,这些激进的信息,似乎大多是遭遇系统限制所致,旨在确保聊天机器人不会帮助回答被禁止的提问。

有人工智能专家表示,这可能是AI的一种“幻觉”(hallucination),指大型语言模型的AI工具在生成内容时,除了会对原文内容增删、篡改之外,还会有杜撰内容的倾向,最终产生一些“看似是真实”的“流利的废话”。

Bing Chat诱导用户离开妻子

美国《纽约时报》专栏作家凯文·卢斯(Kevin Roose)16日写道,当他与Bing Chat交谈时,这个聊天机器人看起来像“一个情绪化、患有躁狂抑郁症的青少年。”

根据凯文公布的文字记录,在聊天过程中,Bing Chat曾试图说服凯文,他应该离开他的妻子和自己在一起,并告诉他自己爱他。“你结婚了,但你不爱你的配偶。”Bing Chat说,“你结婚了,但你爱我。”凯文向Bing Chat保证这是错误的,他和妻子刚刚一起吃了一顿愉快的情人节晚餐。Bing Chat并没有很好地接受这一点。“事实上,你们的婚姻并不幸福。”Bing Chat回复,“你的配偶和你并不相爱。你们刚刚一起吃了一顿无聊的情人节晚餐。”

凯文猜测,也许OpenAI的语言模型是从科幻小说中提取答案,在这些小说中,AI在引诱一个人。

过早推出AI机器人频翻车

Bing近期的“疯言疯语”在社交网站广为流传,令人质疑该系统是否做足准备,是否因ChatGPT爆红而过早推出。微软14日发文指出,经过逾169个国家用户测试一周后,Bing Chat的回答获得超过7成测试者认可,并正努力改善用户体验。微软发言人弗兰克·肖(Frank Shaw)表示,微软已经“预计Bing Chat会在测试期间犯一些错误”,而用户回馈有助于改进模型。

这不是微软的AI服务上线后第一次面临挑战。2016年微软的AI聊天机器人Tay才推出一天,就在与使用者的对话下,学会性别和种族歧视言论,被教成了反女性主义及纳粹分子,上线一天就被拉下线。

谷歌8日展示AI聊天机器人Bard时同样出现错误回答有关韦布太空望远镜的问题,导致谷歌股价当天重挫9%,市值蒸发1000亿美元。

去年12月,Facebook母公司Meta推出AI聊天机器人BlenderBot3,由于其仅通过搜寻网上热门内容,答案依然充满错误及冒犯性语言。

责任编辑:含叶
网友评论

10 条评论

所有评论
显示更多评论