联合国人权事务高级专员沃尔克·蒂尔克也谈到了这个问题。他在最近一次有关该主题的讨论中表示:“包括生成式人工智能在内的先进人工智能对人权带来的无与伦比的影响已经被很多人感受到。”为了确保人工智能惠及每个人,“人必须处于技术的中心”。

生成式人工智能与人权的邂逅

Türk在2月14日举办的“生成人工智能的人权维度”活动上作为主讲人发表了上述言论,该活动由人权与国际正义中心主办,斯坦福大学以人为中心的人工智能研究所(HAI)等机构共同赞助。在蒂尔克发表评论后,代表私营和公共部门以及学术界的专家小组讨论了生成式人工智能对人权、民主功能和总体社会凝聚力的影响。该小组包括:

艾琳·多纳霍(EileenDonahoe),美国国务院网络空间和数字政策局数字自由特使兼协调员;

亚历克斯·瓦尔登(AlexWalden),谷歌全球人权主管;

佩吉·希克斯(PeggyHicks),联合国人权高专办专题参与、特别程序和发展权司司长;

NatePersily,斯坦福大学网络政策中心联合主任、斯坦福大学法学院JamesB.McClatchy法学教授;和

RaffiKrikorian,艾默生集团首席技术官。

以下是谈话中的一些要点。

为什么人工智能与众不同

尽管对人工智能的一些担忧是常见的——它可能传播虚假信息或侵犯隐私——但它所带来的挑战在很多方面是政策界所不熟悉的。

首先,人工智能被Persily称为关键技术。“它正在成为所有其他技术的基础,这使得它与众不同,”他说。“它已经无处不在,并将继续无处不在。它正在规范我们经济和社会关系的整个未来。”它也比其他技术更不透明,其应用也更难以预见。作为一个例子,Persily表示,OpenAI团队在发布ChatGPT时并没有想象到它在编码中的用途。“现在超过一半的用途是用于编码,”他说。

谷歌的瓦尔登指出了人工智能运行的新颖速度和规模,以及它的学习和适应能力。尽管谷歌等平台长期以来一直在与政策制定者就如何监管内容进行对话,但她表示,“人工智能让这一切变得更加复杂。”

最后,人工智能的许多基础算法都是开源的。这对于使工具能够超越公司IP的访问至关重要,但它也存在问题。例如,在ChatGPT发布的第一年,人工智能生成的儿童内容激增——这是因为这些工具是免费提供的。

“在某些方面,这项技术最民主友好的方面也带来了最大的风险,”佩西利说。

一些严重的担忧

所有小组成员都对人工智能将如何使用以及已经如何使用表示担忧;其中三个担忧在谈话中得到了回响。

首先,克里科里安和多纳霍都指出,不同人工智能工具的快速发展使得公众或政策制定者几乎不可能跟上。“这项技术的开发和吸收之间存在很大差异,”克里科里安说。“从很多方面来说,这只是意味着我们正在为其他所有问题浇注汽油。”例如,在我们设法解决日益严重的在线虚假信息问题之前,人工智能正在加速其传播。

其次,希克斯指出,尽管联合国呼吁在最有可能发生侵犯人权行为的领域暂停使用人工智能,但这些领域恰恰是进步最快的领域。国家安全和执法等部门正在制定法律豁免权,人权从业者长期以来一直将精力集中在这些部门,但往往收效甚微。

“早在生成人工智能出现之前我们就已经表达了这些担忧,”希克斯说。“我们在这方面尚未取得进展。”

最后,佩西里表示,日益严重的虚假信息问题可能会导致人们不仅相信谎言,更令人担忧的是,不相信真相。“人工内容的普遍存在给所有想要分裂现实的人带来了可信度,”他说。“我们越不相信眼前的证据,说谎者说出真话和假话的力量就越大。”

对监管的思考

关于如何有效、公平地监管生成型人工智能的讨论围绕着几个中心点:

联合国通过其B-Tech倡议创建了一个框架,技术公司可以通过该框架将人权考虑纳入其所做的工作中。该倡议最近采用了生成人工智能的具体案例。“我们为应对这些巨大挑战而制定的一套跨领域法律,”蒂尔克说,“就是国际人权框架。”

监管解决方案必须建立在广泛参与的基础上。“我们最担心的一个问题是,这些对话似乎过于关注全球北方和英语环境,”希克斯说。多纳霍认为,潜在的问题本质上是跨国性的,因此,解决方案必须具有包容性。

这些工具必须具有尽可能高的透明度。也许永远不可能完全理解模型的功能——为什么它的输出是这样的——但某些检查可以提前概述模型的功能。

围绕政策和监管的讨论必须包含细微差别。希克斯表示,当今大多数关于人工智能的讨论都是高度两极分化的:产品要么好,要么坏;产品要么好,要么坏;产品要么好,要么坏。它会毁灭世界还是拯救世界;私营部门是问题所在,或者政府是问题所在。“我们必须找到同时进行这两种对话的方法,”她说。

讨论接近尾声时,多纳霍要求四位小组成员回答他们对生成人工智能的未来总体上是更乐观还是更悲观。小组成员普遍抱有希望,但有人可能会说,这种希望有所保留。

“我对这项技术持乐观态度,但我不得不说我现在对社会感到悲观”,佩西利这样说道,他质疑我们是否有能力就治理即将出现的许多威胁有效达成共识。“如果人工智能早在30年前就有过这样的时刻,或者如果我们能够在首先处理好我们的社会分歧之后再处理它就好了。”