欧盟AI ACT:AI模型制造商tiptoes tipto的最新代码草案,以替代大型AI的绅士指导
在5月的截止日期之前,为通用AI(GPAI)模型的提供者完成指南,以遵守《欧盟AI法案》的规定,《实践守则》第三稿于周二发布。该代码自去年以来一直在开发中,预计该草案将是最后一项。
也已经启动了一个网站,目的是提高代码的可访问性。有关最新草案的书面反馈应在2025年3月30日之前提交。
集团基于风险的AI规则手册包括仅适用于最强大的AI模型制造商的一部分义务 - 涵盖诸如透明度,版权和降低风险的领域。该法规旨在帮助GPAI模型制造商了解如何履行法律义务并避免对不遵守规定的制裁风险。 AI法案违反GPAI要求的罚款可能会达到全球年收入的3%。
精简最新修订版与早期迭代相比,根据对12月发布的第二次草案的反馈,代码与早期迭代相比具有“具有精致承诺和措施的更简化结构”。
。进一步的反馈,工作组讨论和研讨会将介绍将第三个草案变成最终指导的过程。专家们说,他们希望在该法规的最终版本中实现更大的“清晰度和连贯性”。
草案被分为几个部分,涵盖了GPAI的承诺,以及透明度和版权措施的详细指导。还有一个有关安全和安全义务的部分,适用于最强大的模型(具有所谓的系统风险或GPAISR)。
关于透明度,该指南包括一个模型文档表格GPAI的示例,以确保其技术的下游部署者可以访问密钥INF有助于帮助自己的合规性。
在其他地方,版权部分可能仍然是Big AI最立即有争议的领域。
当前草案在遵守承诺时,诸如“最佳努力”,“合理的措施”和“适当措施”之类的术语,例如在爬行网络以获取模型培训的数据或减轻模型的风险时尊重权利要求等承诺。
使用这种中介语言表明,数据挖掘AI巨头可能会感到他们有足够的摆动空间来抓住受保护的信息以训练模型并稍后提出宽恕 - 但是在代码的最终草案中,语言是否得到了努力,还有待观察。
在较早的代码的较早迭代中使用的语言 - 说GPAI应该提供一个联系点和投诉处理使右股物更容易“直接,迅速地”传达不满 - 似乎已经消失了。现在,只有一条线说:“签署者将指定与受影响的右壳者进行通信的联系点,并提供有关它的易于访问的信息。”
当前的文本还表明,如果右股权“明显没有根据或过度,尤其是由于其重复性,则可以拒绝GPAIS的版权投诉。”它建议创意人尝试通过使用AI工具来试图检测版权问题并自动对大型AI的申请投诉,从而使它们忽略了。
,在安全和保障方面,《欧盟AI法案》评估和减轻系统性风险的要求仅适用于最强大的模型的子集(使用超过10的总计算能力训练的模型^25 Flops) - 但是,最新草案看到一些先前建议的措施对反馈进行了进一步的范围。
美国压力在欧盟新闻稿中未提及有关最新草案的新闻稿,这是对欧洲立法制定的攻击,而集团对AI的规则特别是由唐纳德·特朗普总统领导的美国政府。
在上个月的巴黎AI行动峰会上,美国副总统贾德·万斯(JD Vance)驳回了规范以确保AI安全安全的需要 - 特朗普的政府将倾向于“ AI机会”。他警告欧洲,过度调节可能会杀死黄金鹅。
从那时起,集团已经杀死了一项AI安全计划 - 将AI责任指令放在斩波块上。欧盟议员还落入了传入的“综合”包,将改革简化为他们所说的旨在减少繁文tape节的现有规则和业务官僚机构,重点关注可持续性报告等领域。但是,随着AI法案仍在实施过程中,显然会施加压力以稀释要求。
在本月初在巴塞罗那举行的世界移动国会贸易展览会上,法国GPAI模型制造商Mismtral(在谈判期间,欧盟AI法案特别大声的反对者都在2023年结束立法 - 创始人Arthur Mensh声称,它很难找到技术解决方案来遵守某些规则。他补充说,该公司正在“与监管机构合作,以确保解决此问题。”
虽然独立专家正在制定本GPAI守则,但欧洲委员会通过AI办公室(监督执法和与法律有关的其他活动)并行提供了一些“澄清”指导,这也将塑造法律的应用方式。包括定义GPAI及其责任。
因此,请注意AI办公室的进一步指导,“在适当的时候”,委员会说,这将“澄清……规则的范围” - 因为这可以为神经失调的立法者提供一条途径,以应对美国游说进行对AI进行调查。
。
发布评论