图片来源:Shutterstock
不透明的人工智能系统可能会损害人权和尊严。需要全球合作来确保保护。
根据查尔斯·达尔文大学 (CDU) 的最新研究,人工智能 (AI) 的兴起改变了人们的互动方式,但它也对人类尊严构成了全球风险。
主要作者、基民盟法学院的玛丽亚·兰达佐博士解释说,人工智能正在迅速重塑西方法律和道德体系,但这种转变正在侵蚀民主原则并加剧现有的社会不平等。
她指出,目前的监管框架往往忽视基本人权和自由,包括隐私、免受歧视、个人自主和知识产权。这种不足主要是由于许多算法模型的不透明性,这使得它们的作难以追踪。
Randazzo 博士将这种缺乏透明度描述为“黑匣子问题”,并指出深度学习和机器学习系统产生的决策无法被人类追踪。这种不透明性使个人难以理解人工智能模型是否以及如何侵犯了他们的权利或尊严,并阻止他们在发生此类违规行为时有效地伸张正义。
“这是一个非常重要的问题,如果没有足够的监管,它只会变得更糟,”兰达佐博士说。
“人工智能在任何人类意义上都不是智能的。这是工程学的胜利,而不是认知行为的胜利。
“它不知道自己在做什么或为什么——没有人类所理解的思维过程,只是剥夺了体现、记忆、同理心或智慧的模式识别。”
目前,全球三大数字大国——美国、中国和欧盟——正在对人工智能采取明显不同的方法,分别依赖以市场为中心、以国家为中心和以人为中心的模式。
兰达佐博士表示,欧盟以人为本的方法是保护人类尊严的首选途径,但如果没有全球对这一目标的承诺,即使是这种方法也达不到要求。
“在全球范围内,如果我们不将人工智能的发展锚定在使我们成为人类的因素上——我们的选择能力、感受能力、谨慎推理能力、同理心和同情心——我们就有可能创建系统,将人类贬低并扁平化为数据点,而不是改善人类状况,”她说。
“绝不能将人类视为达到目的的手段。”
参考资料:玛丽亚·萨尔瓦特里斯·兰达佐 (Maria Salvatrice Randazzo) 和古兹亚尔·希尔 (Guzyal Hill) 撰写的“人工智能时代的人类尊严:法律问题和监管制度概述”,2025 年 4 月 23 日,《澳大利亚人权杂志》。