X用户将Grok视为事实检查器,这是对错误信息的关注
埃隆·马斯克(Elon Musk)X上的一些用户正在转向Musk的AI机器人进行事实检查,这引起了人类事实检查者的担忧,认为这可能会引起错误的信息。
本月早些时候,X使用户能够召集Xai的grok,并就不同的事情提出问题。此举类似于困惑,该困惑已在X上运行自动化帐户以提供类似的体验。
XAI在X上创建Grok的自动帐户后不久,用户开始尝试提出问题。包括印度在内的市场上的一些人开始要求格罗克对针对特定政治信念的事实核对的评论和问题。
事实检查者以这种方式担心使用Grok或任何其他AI助手,因为机器人可以将其答案构成声音令人信服的答案,即使他们实际上不正确。过去与Grok一起看到了传播虚假新闻和错误信息的实例。
8月LAST年,五名国家秘书敦促马斯克在美国大选之前在社交网络上浮出水面的误导性信息实施重大变化,以对Grok进行重大变化。
其他聊天机器人,包括OpenAI的Chatgpt和Google的双子座,也被认为会产生有关去年选举的不准确信息。另外,研究人员在2023年发现,包括Chatgpt在内的AI聊天机器人可以轻松地用于产生具有误导性叙述的令人信服的文字。
“ AI助手,例如Grok,他们真的很擅长使用自然语言,并给出一个听起来像人的答案。这样,AI产品对自然性和真实的声音回答有这种主张,即使他们可能非常错误,即使他们可能是危险。这是在这里的危险,” Angie Holan,Angie Holan,国际事实网络(IFCN)
印度非营利事实核对网站ALT News的联合创始人Pratik Sinha表示,尽管Grok目前似乎具有令人信服的答案,但它与提供的数据一样好。
“谁将决定提供什么数据,这就是政府干预等的地方,”他指出。
“没有透明度。缺乏透明度的任何东西都会造成伤害,因为任何缺乏透明度的东西都可以以任何方式塑造。”
“可能被滥用 - 传播错误信息”在本周早些时候发布的一个回复中,Grok在X上的帐户已确认它“可能会被滥用 - 传播错误信息并侵犯隐私。”
但是,自动化帐户在用户得到答案时不会向他们显示任何免责声明,例如,如果它具有幻觉,则将其误导性,这是AI的潜在劣势。
。 Grok关于是否可以传播错误信息的回应(从Hinglish翻译)“它可能会构成信息以提供回应,”总部位于果阿的多学科研究集体数字期货实验室的研究助理Anushka Jain告诉TechCrunch。
还有一些疑问,关于Grok在X上使用X帖子作为培训数据,以及它用于检查此类帖子的质量控制措施。去年夏天,它推出了一种更改,该更改似乎使Grok默认情况下消耗X用户数据。
通过社交媒体平台可访问的AI助手的另一个有关AI助手的领域是他们的交付在公共场合的信息 - 与私人使用的Chatgpt或其他聊天机器人不同。
即使用户很清楚从助手那里获得的信息可能会误导或不完全正确,但平台上的其他人仍然可能会相信。
这可能会造成严重的社会伤害。在印度较早发现的情况下,当时的误导散发出了whatsapp,导致暴民私刑。但是,这些严重的事件发生在Genai到达之前,这使得合成内容的产生变得更加容易,并且看起来更现实。
“如果您看到很多这些Grok答案,您会说,嘿,嘿,大多数是对的,这可能是正确的,但是有些是错误的。有多少?这不是很小的一小部分。一些研究的研究表明,AI模型表明遇到了20%的错误率……何时出错,何时出错,何时出现问题,IFCN IFCN IFCN IFCN IFCN IFC&######################################################################################;8217; S Holan告诉TechCrunch。
AI与真实事实检查员虽然包括XAI在内的AI公司正在完善其AI模型,以使它们更像人类交流,但它们仍然不是 - 也不能取代人类。
在过去的几个月中,科技公司正在探索减少对人类事实检查者的依赖的方法。包括X和Meta在内的平台开始通过所谓的社区笔记来接受众包事实核对事实的新概念。
自然,这种变化也引起了事实检查者的关注。
sinha of Alt News乐观地认为,人们将学会区分机器和人类事实检查者,并将更加重视人类的准确性。
“我们将看到摆钟最终向后倾斜,以进行更多的事实检查,” IFCN的Holan说。
但是,她指出,与此同时,事实检查者可能会与AI生成的信息迅速传播有关。
“这个问题大部分取决于,您真的在乎什么是真实的?
x和xai没有回应我们的评论请求。
发布评论