欧洲议会议员以压倒多数的投票通过了一系列世界领先的人工智能新规。这些规定的目的是确保人类能够掌控技术,并确保其造福于人类。

 

那么,这些规定会带来哪些变化呢?这些规定是基于风险评估的。人工智能系统的影响越大,它们将面临的审查就越多。例如,向用户提供建议的系统将被视为低风险,而人工智能驱动的医疗设备则被视为高风险。

 

欧盟预计大多数人工智能应用将是低风险的,并对不同类型的活动进行了分类,以确保法规在未来长期内仍然具有相关性。例如,如果一个新技术计划将人工智能用于警务工作,那么它将需要更多的审查。

 

几乎在所有情况下,公司在使用该技术时都必须清晰地表明这一点。风险较高的公司必须向用户提供明确的信息,并保留与其产品相关的高质量数据。

 

新的《人工智能法案》禁止被认为“风险过大”的应用,这包括警方使用人工智能技术来识别人员。然而,在极端情况下,这是可以被允许的。

 

某些类型的预测性警务(即使用人工智能来预测未来犯罪的系统)也被禁止,而追踪学校学生或工作场所员工情绪的系统也将被禁止。对于Deepfakes(即利用人工智能制作的虚假图片、视频或音频),必须进行标记,以防止虚假信息的传播。

 

开发通用人工智能的公司,如谷歌或OpenAI,在训练其系统时必须遵守欧盟的版权法,并提供有关其模型输入的详细信息摘要。

 

最强大的人工智能模型,如ChatGPT 4和谷歌的Gemini,将面临额外的审查。欧盟担心这些强大的人工智能系统可能“导致严重事故或被滥用于影响深远的网络攻击”。

 

OpenAI和Meta最近发现与俄罗斯、中国、伊朗和朝鲜有关联的组织正在使用他们的系统。

 

这是否会对英国产生影响?总的来说,是的。《人工智能法案》是具有开创性的,各国政府正在密切关注它,以寻求灵感。

 

Saidot的人工智能治理专家Bruna de Castro e Silva表示:“这被称为‘布鲁塞尔效应’。其他司法管辖区正在关注欧盟正在采取的行动。他们遵循立法程序、所有指导方针、框架和道德原则。而且它已经在其他国家复制。基于风险的方法已经在其他司法管辖区建议。”

 

英国拥有人工智能指南,但这些指南并没有具有法律约束力。在去年11月举行的伦敦全球人工智能安全峰会上,人工智能开发人员同意与政府合作,在向公众推出新模型之前对其进行测试,以帮助管理其风险。

 

英国首相苏纳克宣布英国将成立全球首个人工智能安全研究所。科技行业一直在努力游说,以确保这些规则对他们有利,而许多行业正在采用类似的规则。Meta要求对经过人工智能修改的图像进行标记,谷歌也做出了类似的限制。

 

      尽管业界普遍支持对人工智能进行更好的监管,但OpenAI首席执行官Sam Altman去年表示,如果无法遵守人工智能法案,ChatGPT的制造商可能会退出欧洲,这引起了人们的关注。他后来澄清说,并没有计划离开。