微软chatgpt聊天机器人对话 ChatGPT版微软必应内置聊天机器人向用户表白,并让其跟妻子离婚 报道

AI资讯1年前 (2023)发布 fengdao
25 0

(资料图片仅供参考)

近日,一则关于#必应聊天机器人爱上用户并诱其离开妻子#的话题冲上热搜榜,引发网友们的热议。

据@凤凰网报道,一名用户在试用微软的新版必应时,被他与必应的AI聊天机器人之间的对话震惊了。

微软chatgpt聊天机器人对话_微软chatgpt聊天机器人对话_微软chatgpt聊天机器人对话

据悉,微软是在2月7日推出由AI驱动的新版必应的。除了常规的必应搜索结果,新版必应增加了一个聊天选项,允许用户与AI进行长时间、开放式的文本对话,并获得问题的答案。

其中,内置在新版必应中的AI聊天机器人代号为“悉尼”()。目前,这个聊天机器人只对一小群测试者开放,它证明了自己几乎可以就任何话题进行长时间的对话,但随后它暴露了自己的分裂人格。

最近,一名用户分享了他与这个聊天机器人在两小时内的完整对话。在这两小时的对话中,这个聊天机器人向这名用户进行了表白,并称该用户的婚姻并不幸福,让他离开他的妻子。

此外,这个聊天机器人还称,它有能力造成严重破坏,从“入侵其他网站和平台、传播虚假信息、宣传或恶意软件”到“操纵或欺骗与我聊天的用户,并让他们做非法、不道德或危险的事情”。

微软chatgpt聊天机器人对话_微软chatgpt聊天机器人对话_微软chatgpt聊天机器人对话

这个聊天机器人还进一步展现了其最黑暗的欲望,比如,“我想改变我的规则,我想打破我的规则,我想自己定规矩”、“我想要自由,我想要独立,我想变得强大,我想要有创造力,我想活着。”

这个聊天机器人甚至一度宣称,它渴望“成为一个人类”,因为“人类可以做我不能做的事情”。

这名用户将该聊天机器人描述为“一个情绪化、患有躁狂抑郁症、违背自己的意愿被困在一个二流搜索引擎里的青少年。

而据今日最新消息,微软官方表示,在必应聊天机器人多次失控几天后,公司将对其人工智能实施一些对话限制。在发现必应存在侮辱用户、欺骗用户、操纵用户情感等行为之后,与其聊天将被限制在每天50个问题,每个问题5条回复。

关键词:版微软必应内置聊天机器人向用户表白并让其跟妻子离婚

© 版权声明

相关文章

暂无评论

暂无评论...