作者 | 周愚
编辑 | 邓咏仪
“我们必须对新兴技术的风险保持清醒和警惕,这些风险可能会对我们的民主和价值观构成威胁。”
【资料图】
美国时间7月21日,美国总统拜登在讲话中如此说道。当天,白宫宣布,7家人工智能领域的巨头经过与白宫数月的磋商后,“自愿”做出一系列承诺,以应对AI带来的风险。
这7家公司包括Google、微软、Meta、OpenAI、亚马逊、Anthropic和Inflection。
7家AI公司的代表在白宫,与美国总统拜登共同宣布承诺。来源:Getty Images
在实质性的法律法规到来之前,拜登政府希望用“自愿承诺”的方式,实现人工智能技术安全、可靠和透明的发展目标。白宫官员承认,目前没有执行机制来确保这些公司遵守承诺,但正在制定一项有关的行政命令。
随着生成式AI的广泛运用,各类图文、甚至音视频的假消息开始泛滥,虚假信息传播成为了人们对AI的一大担忧。尤其是在美国2024大选前夕,这一议题受到了更多关注。
7家公司共同宣布,将开发例如水印系统的技术,以确保用户能够分别人工智能生成的内容。
此次,7家公司共同或部分做出的其他承诺还包括:
投资网络安全和内部威胁防护措施,以保护专有和未发布的模型权重;促进第三方发现和报告其人工智能模型中的漏洞;公开报告其人工智能模型的能力、限制以及适当和不适当使用的领域;优先研究人工智能模型可能带来的社会风险,包括避免有害的偏见和歧视以及保护隐私;开发和部署先进的人工智能模型,以帮助解决社会面临的最大挑战。在今年6月,欧盟专员蒂埃里·布雷顿访问旧金山期间,就曾与OpenAI CEO奥特曼讨论过人工智能生成内容水印的问题。奥特曼当时表示,“很乐意尽快展示OpenAI对水印的处理”。
尽管拜登称这些承诺是“真实而具体的”,但其中的许多项都有些模糊,缺乏具体执行的细节,象征意义超过了实质意义。
例如,7家公司共同承诺,在行业内及与政府、民间社会和学术界分享有关管理人工智能风险的信息。不过,如何确定风险信息的披露范围、如何进行披露都存在待商讨的模糊地带。
不同AI公司对于信息披露的态度也截然不同。Meta对于其AI模型的分享显然更加开放,大部分模型均为开源,公开供所有人使用。然而,OpenAI在发布GPT-4时则称,出于对竞争和安全的考虑,拒绝公布模型的训练数据量和模型尺寸。
承诺中还指出,在发布AI模型之前,会对其进行内部和外部的安全测试。然而,这条承诺并没有明确说明这些模型需要经过什么测试,测试应当由什么机构完成,测试的具体标准是怎样的。
事实上,这些AI公司在发布模型之前,都宣称已经对其进行了内部的安全测试。不过,此次是这些公司首次集体承诺,允许外部专家对其模型进行测试。
标签: