25 November 2024

2019冠状病毒病大流行过后,ChatGPT和DALL-E等生成式人工智能平台得到了广泛应用,极大改变了人类数字生活的方方面面。通过自然语言生成和大语言模型,生成式人工智能已成为高效的生产力工具。无需详细的指令,人工智能也能够生成各式各样的内容,包括文章、图片、报告、视频和旁白等。就像烧菜放盐一样,人工智能可以提高生产力,但需要审慎控制。

生成式人工智能的诞生,无疑提高了产量和效率,提升了创造力。随着人工智能系统越来越多地纳入数字化平台,一系列重大危害也随之浮现,尤其是涉及信息完整性和人权的问题。

生成式人工智能对信息完整性构成威胁

人工智能生成或介导的内容往往非常逼真,难以辨伪,且传播迅速。如果此类内容传递虚假或误导性的信息,则可能会加剧信任赤字

人工智能工具之所以得到广泛使用,是因为不但输出质量上乘,而且界面简洁易用,获取途径日益增多。这些因素可能带来有利的影响,也可能引发不良的后果。乐观地看,人工智能带来了更高的效率、更大的便利和一定程度的民主。另一方面,我们必须意识到,大语言模型的设计初衷并非传递真相。相反,大语言模型并不保证内容的准确性或真实性,仅仅根据训练数据的模式生成看似合理的回答。由于许多用户对此特点缺乏了解,这些模型往往将准确与不准确信息混杂在一起,从而了破坏信息的完整性。

此外,数字化平台和生成式人工智能是传播虚假和误导性信息的绝佳组合,因为大多数数字化平台的算法优先考虑内容的用户互动性,而非准确度。随着人工智能生成内容的增加,这些内容可能会成为歪曲事实的媒介,进一步加速虚假信息的传播。尽管事实核查技术已有进展,但数字化平台和人工智能算法仍然缺乏可靠的机制定期确认材料的合法性。此外,不同平台和辖区的事实核查程序存在差异。这意味着即便发现了不准确的内容,也可能需要数小时乃至数天才能修正。

如果继续以目前的方式核查数字化材料,错误信息和虚假信息的传播可能愈演愈烈,从而引发更多关于真实性、偏见、信息隐私等方面的担忧。传播错误信息和虚假信息也会危及民主制度和基本人权

要有人性才能理解人权

《世界人权宣言》第十九条规定,“人人有权享有主张和发表意见的自由”,但这种自由绝不能被滥用或扭曲,伤及他人或社区。然而,人工智能生成的内容越来越多地用于传播仇恨言论、仇外心理以及歧视性言论,目标受众往往是难民、少数族裔等弱势民众。

2019年,总部位于阿姆斯特丹的网络安全公司Deeptrace开展了一项研究,结果显示96%的深度换脸视频均为非自愿,并且包含色情内容。此外,人工智能生成内容还可能沦为人口贩运的帮凶,诱骗受害者落入剥削的深渊,尤其是妇女和儿童。

技术方面也存在严峻的人权挑战。人工智能学习算法主要依赖从各大数字和社交媒体平台收集来的大量数据,而这些数据通常是由人类上传或通过人类互动生成的。由于数据量巨大,几乎不可能彻查乃至浏览每条信息。人工智能模型利用这些数据识别趋势、生成预测并合成内容,但智能模型评估数据的细腻度远不及人类。这可能导致有害的偏见和错误信息的传播,进而侵犯人权。

另一个潜在的因素是负责维护和训练人工智能系统的人员的工作环境。这些人员往往薪资微薄,持续接触令人不适的内容,且工作环境也可能引发精神压力,而这一问题最近引起了关注。2023年5月,150多名参与脸书、TikTok和ChatGPT人工智能系统的工作人员齐聚内罗毕,承诺建立首个非洲内容审核联盟。

人们常常不加质疑地追随潮流,使人权等基本价值观遭到掩盖。随着人工智能逐渐渗透进入我们的日常生活,面对人工智能,我们可能处于十分弱势的位置。生成式人工智能平台的快速扩张,使道德挑战日益显著,特别是在人权方面。当前,政策乏力致使人们的隐私和自主权岌岌可危,科技公司得以利用数字空间牟利。

随着社会越来越依赖数字化平台和服务,解决这些问题,特别是与人权相关的问题,变得越来越紧迫。

我们毕竟是人类

未来的路确实漫长且艰难,随着人工智能不断发展,采用负责任的方法至关重要,要在技术革新的同时维护真相、尊严和人权。必须采取多管齐下的方法,降低生成式人工智能带来的风险。

从技术角度来看,为了使人工智能生成的内容准确可靠,开发人员应该在一开始就做好详尽的测试,以便在开发阶段发现偏见、错误和漏洞。数据、算法和决策的透明度,对于建立信任和消除人工智能对信息完整性的负面影响至关重要,因为使用多样化的数据集有助于避免有害的偏见,生成更加客观公正的内容。正如《联合国信息完整性全球原则》的建议,技术公司应授权用户就信任和安全、隐私政策和数据使用等各个方面提供意见和反馈,承认用户的隐私权,同时也应该改善用户选择与控制,提高与不同供应商的一系列服务的兼容性。

在人权方面,司法当局和人权组织应该在尊重个人隐私和尊严的同时积极支持人工智能的发展和应用。作为上述倡议的一部分,应该执行更强有力的数据保护法规,保护人们免受冒犯性的数据收集,并阻止人工智能系统未经许可使用个人数据。人权监督机构必须将人工智能伦理纳入现有的人权框架,确保人工智能的应用尊重个人隐私、言论自由和不歧视等个人权利。对于妇女、儿童、老年人、残疾人、土著人民、难民、LGBTIQ+人士以及种族或宗教少数群体等弱势群体,特殊保护至关重要。

数字化平台的所有者应该对共享的内容负责,特别是在人工智能放大虚假信息的背景下。应该开发更先进的内容监控系统,快速识别、删除或标记人工智能生成的错误信息。数字化平台还可以通过进一步公开算法和数据收集方法,确保人们了解平台是如何选择和推广内容的。

我们齐心协力,就可以确保生成式人工智能今后得到妥善的使用,并在不危及信息完整性和人权的情况下实现应有的效益。呼吁负责任地使用人工智能不仅仅是一种选择,也是保证数字化未来公正平等的必要条件。

 

The UN Chronicle is not an official record. It is privileged to host senior United Nations officials as well as distinguished contributors from outside the United Nations system whose views are not necessarily those of the United Nations. Similarly, the boundaries and names shown, and the designations used, in maps or articles do not necessarily imply endorsement or acceptance by the United Nations.