刷脸泛滥,人工智能需要处理伦理道德问题的能力吗?

在2021年全国两会期间,有关人工智能的建议一再被来自科技界的代表提及。显然,人工智能系统已经为社会带来了巨大好处,并且有潜力发挥更大的作用。 正如波特兰州立......

正如波特兰州立大学计算机科学教授梅拉妮·米歇尔在《AI 3.0:思考人类的指南》一书中所说的那样,当下的人工智能技术对你可能一直在使用的许多服务都起到了核心作用,有些甚至你都没有意识到,如语音转录、GPS导航和出行规划、垃圾邮件过滤、语言翻译、信用卡欺诈警报、书籍和音乐推荐、计算机病毒防护以及建筑物能源利用优化等。

但在人工智能为我们的生活带来各种便利之余,人们也难免产生担忧和质疑:让人工智能来接管那些枯燥无聊、令人疲倦、有辱人格或者极其危险又工资低廉的工作真的能够造福社会吗?人工智能的研究与开发应在多大程度上受到监管?又应该由谁来监管?人们倾向于应该针对人工智能领域制定监管和道德规范,但尚未达成普遍共识的地方在于:是应该立即将重点放在能够解释人工智能系统推理过程的算法方面,还是关于数据的隐私方面,或是人工智能系统对恶意攻击的鲁棒性方面,又或是关于人工智能系统的偏见以及关于超级智能潜在的风险方面? 

对于即将到来的人工智能时代,人们的态度截然不同:有人认为人工智能实际上能够消除全球贫困,大规模减少疾病,并为地球上绝大多数人提供更好的教育。有人则对未来有一种相当悲观的预测:大批的工作被自动化技术接管导致的人类失业;由于人工智能监视而造成的对公民的隐私和权利的侵犯;不道德的自动化武器;由不透明和不可信的计算机程序做出的未经审查的决策;种族和性别偏见被放大;大众媒体被操纵;网络犯罪增多等。

那么,我们到底如何才能创造出一个真正能靠自己进行学习的人工智能系统——一个更值得信赖的系统,一个和人类一样,可以对其所面临的情况进行推理并对未来进行规划的系统呢?

以下内容经出版社授权节选自《AI 3.0:思考人类的指南》,标题为摘编者所取。

在考虑人工智能在我们社会中的作用时,我们很容易把注意力集中在不利的一面,但是,要知道,人工智能系统已经为社会带来了巨大好处,并且它们有潜力发挥更大的作用。当下的人工智能技术对你可能一直在使用的许多服务都起到了核心作用,有些甚至你都没有意识到,如语音转录、GPS导航和出行规划、垃圾邮件过滤、语言翻译、信用卡欺诈警报、书籍和音乐推荐、计算机病毒防护以及建筑物能源利用优化等。

如果你是摄影师、电影制作人、艺术家或音乐家,你可能正在使用人工智能系统来协助开展创作,例如用以帮助摄影师编辑照片、协助作曲家编曲的计算机程序。如果你是学生,你可能会从适合你自己学习风格的“智能教学系统”中受益。如果你是科学家,你很有可能已经使用了许多可用的人工智能工具中的一种来帮助你分析数据。

如果你是视力存在障碍的人,你可能会使用智能手机的计算机视觉应用程序来阅读手写的或印刷的文字,例如标牌、餐馆菜单或钞票上的文字。如果你是听力受损人士,如今你可以在YouTube上看到非常精准的字幕,在某些情况下,你甚至可以在一次演讲中获得实时的语音转录。这些只是当前人工智能工具正在改善人们生活的几个例子,许多其他的人工智能技术仍处于研究阶段,但也正渐渐成为主流。

在不久的将来,人工智能相关应用可能会在医疗保健领域得到广泛普及。我们将看到人工智能系统帮助医生诊断疾病并提出治疗建议、研发新的药物、监控家中老年人的健康和安全。科学建模和数据分析也将越来越依赖人工智能工具,例如,改善气候变化、人口增长和人口结构、生态和食品科学以及在22世纪我们的社会即将面临的其他重大问题的模型。对于DeepMind的联合创始人戴米斯·哈萨比斯来说,人工智能最重要的潜在好处是:

我们可能不得不清醒地认识到,由于这些问题可能太过复杂,即便由地球上最聪明的人来努力解决这些问题,单独的人类个体和科学家在有生之年都很难有足够的时间来取得足够的创新和进步……我的信念是,我们需要一些帮助,而我认为人工智能就是这一问题的解决方案。

让人工智能来接管这些工作真的能够造福社会吗?我们可以回顾一下科技的发展历史,来从中得到一些启发。以下是人类曾经从事过但在很久以前就已经实现自动化了的一些工作的示例:洗衣工、人力车夫、电梯操作员和计算员。大多数人会认同:在以上这些例子中,使用机器代替人类做这些工作,确实让生活变得更美好了。有人可能会争辩说,如今的人工智能只是简单地延续了人类的进步路线,将那些必要的但却没人想做的工作逐渐实现自动化,从而改善人类的生活。

失去隐私并不是唯一的风险,人们对于人脸识别还有一个更大的担忧,那就是可靠性:人脸识别系统会犯错。如果你的脸被错误匹配,你可能会被禁止进入一家商店、 搭乘一架航班, 或被错误地指控为一名罪犯。 

有一个案例可以体现制定此类法规所面临的复杂性,欧盟议会在2018年颁布了一项关于人工智能的法规,有些人称之为“解释权”。这项法规要求,在“自动决策制定”的情况下,任何一个影响欧盟公民的决策都需要提供其中所涉及的与逻辑有关的有意义信息,并且这些信息需要使用清晰明了的语言,以简洁、透明、易懂和易于访问的形式来沟通和传达,这打开了有关解释问题的闸门。什么叫“有意义”或“与逻辑有关”的信息?这一法规是否禁止在制定对公民有所影响的决策时使用难以解释的深度学习方法?例如在贷款和人脸识别等方面。这种不确定性无疑将确保政策制定者和律师在很长一段时间内仍有取酬就业的机会。

这个基础已经开始形成。在美国,各州政府正在研究制定相关法规,例如用于人脸识别或自动驾驶汽车的法规。更重要的是,创建人工智能系统的大学和公司也需要进行自我监管。

这些定律已非常知名,但实际上,阿西莫夫提出机器人三定律的目的是证明这套 定律会不可避免地失败。阿西莫夫在 1942 年首次提出这些定律时讲述了一个名为 “逃跑”的故事:如果一个机器人遵循第二定律向危险物质移动,这时第三定律将会生效,机器人随即远离该物质;此时第二定律又重新开始生效。于是,机器人将被困 在一个无尽的循环中,最终对机器人的人类主人造成了灾难性的后果。阿西莫夫的故 事通常集中讨论把伦理规则编程置入机器人后可能引发的意外后果。阿西莫夫是有先 见之明的:正如我们所看到的,不完整的规则和意外所引发的问题已经妨碍了所有基 于规则的人工智能方法,道德推理也不例外。 

一些人工智能伦理研究人员建议我们放弃直接对机器的道德规则进行编程的尝试,让机器通过观察人类的行为自行学习符合道德的价值观;然而,这种自学方法也存在我在上一章中所介绍的机器学习会面临的所有问题。

在我看来,在赋予计算机“道德智能”方面的进展不能与其他类型智能的进展分开,真正的挑战是创造出能够真正理解它们所面临的场景的机器。正如阿西莫夫的故事所阐明的:除非机器人能够理解不同场景下伤害的内涵,否则它无法可靠地执行避免伤害人类的命令。对道德进行推理要求人们认识到原因和结果的关系,想象可能的不同未来,了解其他人的信念和目标,并预测一个人处在各种情况下会采取的各种行动的可能结果。换句话说,可信任的道德理性的一个先决条件是通用的常识,而这,正如我们所见,即使在当今最好的人工智能系统中也是缺失的。

到目前为止,我们已经看到,在庞大的数据集上训练的DNN如何在特定任务上与人类的视觉能力相媲美;我们也看到了这些网络的一些弱点,包括它们对大量人类标记数据的依赖,以及它们以非人类的方式失败的倾向。我们如何才能创造出一个真正能靠自己进行学习的人工智能系统——一个更值得信赖的系统,一个和人类一样,可以对其所面临的情况进行推理并对未来进行规划的系统?

作者: 雪珍

为您推荐

发表评论

您的电子邮箱地址不会被公开。

联系我们

联系我们

0898-88881688

在线咨询: QQ交谈

邮箱: email@wangzhan.com

工作时间:周一至周五,9:00-17:30,节假日休息

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部