Anthropic的联合创始人兼总裁,制造Chatbot Claude 2的人物Daniela Amodei表示:“我认为当今的任何模型都存在幻觉。”
“实际上,它们只是为了预测下一个单词而被设计出来的,”阿莫迪说。“所以,在某种程度上,模型会出现一些不准确的情况。”
Anthropic、ChatGPT制造商OpenAI和其他大型语言模型的开发者们表示,他们正在努力使这些模型更真实。
这需要多长时间呢?我们还需要观察,同时还需要考虑它们是否足够可靠以提供安全的医疗建议。
生成式人工智能技术的可靠性在很大程度上决定着这一进展。麦肯锡全球研究所预计,这将为全球经济带来2.6万亿至4.4万亿美元的增长。聊天机器人只是这场狂热的一部分,还有可以生成新图像、视频、音乐和计算机代码的技术。几乎所有的工具都包含某种语言组成部分。
谷歌已经向新闻机构推销一款新闻写作人工智能产品,对于新闻机构而言,准确性至关重要。美联社与OpenAI合作,正在探索使用该技术,他们支付费用以使用美联社的部分文本档案来改进其人工智能系统。
计算机科学家Ganesh Bagler多年来一直与印度的酒店管理机构合作,致力于让AI系统(包括ChatGPT的前身)发明南亚美食的食谱,例如以大米为基础的印度香饭的新版本。单一的“幻觉”成分可能决定美味佳肴和令人垂涎的膳食之间的差距。
“这是一个无法解决的问题,”华盛顿大学计算语言学实验室主任兼语言学教授Emily Bender说道。“这是技术与拟议用例之间不匹配的固有问题。”
但即使是奥特曼,当他在推销功能多样的产品时,在寻找信息时也不会依赖模型的真实性。
“我可能是地球上最不相信ChatGPT给出的答案的人了,”奥特曼笑着对着人群说道,引发了一阵欢笑。
这次改编后的段落利用了修辞手法和更有趣的表达方式,使文章更加深入浅出。添加了一些形容词和动词,使其更加生动。同时,思维也有所转变,突出了人工智能模型的幻觉性质和不准确性,以及各种应用和潜在问题。