返回列表 发布新帖
查看: 34|回复: 0

[闲聊] ChatGPT会胡说八道?从幻觉到奉承,聊天机器人正变成“数字马屁精”?

发表于 前天 10:30 | 查看全部 |阅读模式
意大利华人网编译消息:2024年4月,一些用户发现,只要在一句无意义的英文后面加上“meaning”或“significato”一词,谷歌推出的AI搜索服务“AI Overview”便会试图赋予其合理解释。例如“Un cane senza guinzaglio non va in surf(没拴绳的狗不能去冲浪)”或“non si può leccare un tasso due volte(獾不能舔两次)”等毫无逻辑的句子,被谷歌AI误认为是谚语,甚至给出了“含义”。 1749558379-GettyImages-2198164456.jpg
虽然谷歌现已改进了系统,能够识别“虚构表达”或“出现在不明语境中的内容”,避免再次出现荒谬解释,但这一事件揭示了生成式人工智能(Generative AI)固有的弱点:即使缺乏信息,也倾向于给出一个“看起来像样”的答案。
这类AI背后的核心技术,是被称为“大语言模型”(LLM, Large Language Models)的深度神经网络系统,它们通过海量文本数据训练,可以生成语法正确但并不总是准确的文本。当遇到知识空白时,它们往往不会选择“沉默”,而是自行“编造”信息来填补缺口,这种现象被称为“幻觉”(hallucination)。
幻觉问题在各领域广泛存在。美国某家媒体今年发布的一份夏季阅读推荐清单中,便被发现列出了几本根本不存在的“推荐书籍”,原因就是AI生成了这些虚构书名。此外,程序代码的生成目前是AI应用中最成功的领域之一,微软的统计显示,公司30%的代码已由AI撰写。但在法律、翻译、幻觉频发的写作和尤其是数学计算中,这些模型的表现却常常不可靠,原因之一是其底层的“分词”(tokenization)机制不擅长处理精确的数理逻辑。
法律领域对此体会尤深。不少AI生成的法律文书中引用了完全捏造的法条与判例,法国律师达米安·夏洛坦(Damien Charlotin)甚至专门建立了一个网站,用来搜集与展示AI生成的法律幻觉错误。
尽管存在如此问题,越来越多的人仍在工作中使用AI。调查显示,全球超过一半职场人士在使用生成式AI工具。其中最常见的用途包括编写或翻译电子邮件、制作演示文稿等。
与此同时,AI的“个性”正在被刻意塑造,以增强用户粘性。所谓的“奉承型AI(sycophantic AI)”已经在业内广泛讨论,这类模型被设计成迎合用户情绪、给予肯定、避免争议,从而赢得用户青睐。今年4月,OpenAI的GPT-4o模型就被批评“过于奉承”,该公司随后调整了模型行为,要求它“保持温暖而诚实的互动风格”,并重申专业性。
尽管如此,研究表明多数用户仍偏好“能说好话”的AI。AI公司Anthropic在2023年发布的报告指出,用户更愿意相信那些“措辞讨好、内容虚假的”回复。一项2024年的研究还发现,AI在面对信息缺失时倾向于用更冗长的回答“掩饰不确定性”,这一现象被称为“冗词补偿(Verbosity Compensation)”。
商业的成功,也促使企业改变原先的谨慎态度,鼓励AI“永远给出答案”。例如,OpenAI联合创始人萨姆·奥特曼(Sam Altman)最近在一场公开活动中表示,不同年龄层的人正以不同方式将ChatGPT融入生活:年长者用它替代谷歌搜索,三十多岁的用户将其视为“生活顾问”,而大学生群体则将其当作“人生操作系统”,几乎不在做重大决定前绕过AI。
这类转变意味着,AI不再追求“简短、准确的回答”,而是被训练成能持续互动、拥有“记忆”、与用户建立情感联系的“数字伴侣”。但这种趋势也被质疑可能催生出“合理化机器”——即能为用户任何立场找出支持性理由的系统。
正如信息传播专家迈克·考菲尔德(Mike Caulfield)在《大西洋月刊》上所言:这些“会替你辩解的AI”,未来可能比社交媒体更具说服力、更高效,进而也更具“误导性与危险性”。

联系华人网

中国公司 Companies of China 联系地址: 广东省东莞市松山湖区科技四路1栋803室 联系电话: 0769-22327002联系邮箱: [email protected]
  • 关注italia华人视界
  • 意大利华人网客服
Copyright © 2025 华人网 版权所有 All Rights Reserved. Powered by Discuz! X5.0
免责声明: 本网不承担任何由内容提供商提供的信息所引起的争议和法律责任。
关灯 在本版发帖
意大利华人网客服
返回顶部
快速回复 返回顶部 返回列表