
生成式AI应用ChatGPT生成了一名挪威男子的虚假且有害信息。(AP: Michael Dwyer)
一名挪威男子在人工智能聊天机器人ChatGPT错误地声称他因谋杀自己的两个孩子而被定罪后,提出了投诉。
Arve Hjalmar Holmen在使用ChatGPT询问是否有关于他的信息后,得到了虚假的回复。
他收到的回复包括:“Arve Hjalmar Holmen是一名挪威人,因一起悲剧事件而受到关注。
“他是两个年幼男孩的父亲,年龄分别为7岁和10岁,2020年12月,他们在挪威特隆赫姆家附近的池塘中被发现死亡。”

Holmen先生表示,AI对他的虚假描述具有破坏性。(Supplied: Noyb)
然而,并非所有细节都是虚构的。
他孩子的数量和性别以及他的家乡都是正确的,这表明ChatGPT确实掌握了一些关于他的准确信息。
代表他提出投诉的数字权利组织Noyb声称,ChatGPT给出的回复具有诽谤性,并违反了欧洲的数据保护规则。
他们表示,Holmen先生“从未被指控或定罪任何罪行,是一名有良知的公民”。
ChatGPT在其主界面底部向用户提供了免责声明,称聊天机器人可能会生成虚假结果,并建议“检查重要信息”。
但Noyb的数据保护律师Joakim Söderberg表示,这还不够。
“你不能只是传播虚假信息,最后再加上一个小免责声明,说你所说的一切可能都不是真的,”Söderberg先生在一份声明中表示。
要求对OpenAI进行罚款
Noyb要求OpenAI删除诽谤性输出,并调整其模型以消除不准确之处。
他们还要求OpenAI支付行政罚款,“以防止未来发生类似的违规行为”。
自2024年8月的事件以来,OpenAI发布了其聊天机器人的新版本GPT-4.5,据报道该版本错误更少。
然而,专家表示,当前一代的生成式AI仍然会“产生幻觉”。
什么是AI“幻觉”?
AI“幻觉”是指聊天机器人将虚假信息呈现为事实。
德国记者Martin Bernklau在微软的AI工具Copilot上被错误地描述为儿童性侵犯者、毒贩和骗子。
在澳大利亚,维多利亚州赫本郡议会的市长Brian Hood被ChatGPT错误地描述为一名已被定罪的罪犯。
去年,谷歌的AI Gemini建议用户用胶水将奶酪粘在披萨上,并称地质学家建议人类每天吃一块石头。
Holmen先生在一份声明中表示,这种特定的“幻觉”非常具有破坏性。
“有些人认为无风不起浪。
“最让我害怕的是,有人可能会读到这个输出并相信它是真的。”