太图之声(第1045期)▏馆员讲书《工具,还是武器?》6 -人工智能与伦理:不要问计算机能做什么,要问它们该做什么
2022年04月20日 16:17:01编辑撰稿人
李昕
太原市图书馆综合服务部馆员
播讲人
范雨琦
太原市图书馆多媒体服务部馆员
作者简介
布拉德·史密斯
微软总裁兼首席法务官。
2015年被任命为微软总裁,在微软工作20余年,带领团队在56个国家或地区开展工作。他在带领公司解决涉及科技与社会交叉领域的关键问题上发挥了关键作用,包括网络安全、隐私、人工智能、移民、公益和环境可持续性。《澳大利亚金融评论》称他为“科技行业受尊敬的人物之一”,《纽约时报》称他为“科技行业事实上的大使”。
卡罗尔·安·布朗
微软传播和公共关系部高级主管,与史密斯在世界范围内合作撰写文章,制作视频,并主导其他外部活动,共同运营“今日科技”系列博客。
内容简介
当下,科技正处于大迸发时代。新技术的开发、大数据的使用、人工智能的探索等,为人类提供了各种各样的便利,同时也带来了前所未有的风险,如隐私安全、网络犯罪、网络战争、分化的社交媒体、人工智能伦理道德和科技造成的差距日益扩大等问题。
对此,技术的开发者与使用者、全球范围内的管理者、政策制定者,以及用户,应该如何行动,才能正确解决科技行业重大的安全问题,让科技维持工具属性,而不会变成攻击人类的可怕武器?作者站在世界科技巨头微软的“驾驶舱里”,深度思考在数字化时代,科技带来的希望和风险。面对一系列棘手的问题,作者和他们带领的微软团队在实践中不断探索,推动微软基业长青,迎接未来的挑战与风险,这对全球相关行业都有巨大的警醒和启示意义。
人工智能与伦理:不要问计算机能做什么,要问它们该做什么
科技行业始终习惯于向前看,这对行业而言是好事,但对其非常不利的一个问题是,很少有人愿意花时间,甚至愿意接受一种有益的做法,即认真观察后视镜,以便能够利用过去的经验来预测转弯之处的问题。
此前,公众对科技的信任曾以隐私和安全保障为中心,但人工智能现在让人们感到不安,并迅速成为公众讨论的中心话题。
计算机被赋予了学习和决策的能力,越来越不受人类的干预。但机器将如何做出决定?它们能反映最佳的人性吗?还是会造成不那么鼓舞人心的后果?越来越明显的是,人工智能技术要想更好地服务社会,迫切需要以强有力的伦理原则为指导。
2016年,我曾与微软的戴夫·海纳一起花时间研究了人工智能领域出现的一些新问题,戴夫·海纳教给我一种思考人工智能的有用方式(我目前仍然这样认为):“人工智能是一种计算机系统,通过识别输入数据的模式,可以从经验中学习并因此做出决策。”与海纳一起工作的埃里克·霍维茨则使用了一个更宽泛的定义,指出“人工智能是对思维和智能行为的计算机制的研究。”计算机从数据和经验中学习并做出决策的能力——人工智能定义的本质——基于两种基本的技术能力,即人类感知和人类认知。
所谓人类感知,是指计算机模拟人类通过视觉和声音感知周遭世界的方式,感知正在发生的事情的能力。
视觉和语音识别一直是计算机科学领域研究者的圣杯。到2000年,计算机的视觉和语音识别准确率已达到90%的门槛。2010年之后,计算机视觉和语音识别技术的发展再次加速。如果100年后的人回顾21世纪的历史,很可能会得出结论称,从2010年到2020年的10年是人工智能取得突破性发展的时期。
近期出现的三大科技进步为人工智能的起飞提供了平台。第一,计算能力终于提升到可执行大量计算所需的水平。第二,由于云计算,个人和组织可获得大量计算能力和存储容量而无须进行大规模的硬件资本投资。第三,数字数据的爆炸性增长使得建立更大的数据集,以训练基于人工智能的系统成为可能。倘若没有这些要素,人工智能是否能如此迅猛地发展将是一件值得商榷的事。
不过,人工智能的发展还需要第四个基本要素,它对于帮助计算机和数据科学家让人工智能有效发挥作用至关重要,而它涉及了人工智能所需的另一个甚至更基本的技术能力,即认知,换句话说,就是计算机推理和学习的能力。
在过去的10年中,计算机和数据科学的飞跃导致了所谓深度学习或神经网络的广泛应用。这些变化的共同影响导致基于人工智能的系统取得快速和令人印象深刻的进步。计算机在感知周遭世界方面开始做得像人类一样出色。同样的进步也发生在语言翻译中,这在一定程度上要求计算机理解不同单词的含义,包括细微差别和俚语。
很快,公众开始感到不安,大量文章出现并提出一个问题:一台基于人工智能的计算机是否能以超人的速度完全独立思考和推理,从而导致机器接管世界。这就是技术专家所说的超智能,或者一些人口中的所谓“奇点”。
随着计算机获得了以前只有人类才拥有的决策能力,几乎每个人面临的伦理问题都正在成为人工智能的伦理问题。人工智能的预测应用场景越来越多,人们也越来越担心系统会在不同场景中对待特殊群体存在偏见,比如歧视有色人种,存在性别偏见。
到2018年,处于人工智能领域最前线的公司,如微软和谷歌等,开始直面这一新的挑战。我们与学术界和其他领域的专家都认识到,我们需要一套道德准则来指导人工智能的发展。在微软,我们最终确定了这一领域的6项道德准则。
第一个准则要求我们满足公平性的需要,即消除偏见的问题。随后是有关两个在公众已达成部分共识的领域,即对可靠性和安全性的重视以及对强有力的隐私和保障的需要。我们的第四项准则所应对的就是重视开发包容性技术,以满足残障人士的需求。
虽然上述4项准则每一项都很重要,但我们意识到,它们都是基于另外两项准则,而最后的这两项准则将成为其他准则成功的基础。首先是透明性。对我们来说,这意味着确保人工智能系统决策机制相关的信息是公开和可以理解的。毕竟,如果人工智能的内部工作机制完全处于暗箱之中,公众怎么可能对人工智能有信心,同时未来的监管机构又怎么来评估对前4条准则的遵守情况?
有关人工智能的最后一个道德准则将是其他一切的基石,那就是问责性。世界会创造一个 计算机对人类负责,而设计这些机器的人对其他人负责的未来吗?这可能是我们这一代人需要面对的一个决定性问题。
这一最终准则要求人类应保留在人工智能的决策机制中,以免基于人工智能的系统在没有人类审查、判断和干预的情况下作恶。换言之,基于人工智能的决策如果会严重影响人类的权利,就需要继续接受严格的人类审查和控制。这就需要接受过培训的人员来评估人工智能做出的决策。
我们认为,这也意味着更广泛的治理流程至关重要。每个开发或使用人工智能的机构都需要制定新的政策、流程、培训计划、合规系统和人员,以便针对人工智能系统的开发和部署进行审核并提供建议。
与所有信息技术一样,人工智能的设计具有全球性的特征。创造它的技术人员希望它在任何地方都能以同样的方式工作,但各国之间的法律法规可能会有所不同,从而既给政府外交官,也给技术人员带来挑战。我们已经反复经历了这种不同带来的困扰,首先是在知识产权法规方面,然后是竞争规则,最近则是隐私监管法规。但在某些方面,与试图裁定伦理道德问题的法律可能具有的复杂性相比,这些不同不值一提,因为伦理道德问题归根结底是哲学问题。
现在,人工智能迫使世界面对伦理道德和其他哲学传统之间的异同,而此前从未有任何技术有这种需要。人工智能提出了诸多复杂的问题,例如个人应承担的责任、对公众保持透明性的重要性、个人隐私的概念以及基本公平的概念等。但是,假如世界无法就人类的哲学问题达成一致,那么它又如何能在计算机伦理方面找到统一的方法呢?这将是未来的一个根本性难题。
与过去相比,现在更需要创造技术的人员不仅来自计算机和数据科学等学科,还要来自社会和自然科学以及人文学科。如果我们要确保人工智能的决策建立在人类所能提供的最好的基础上,它的发展必须是一个多学科的过程。在我们思考高等教育的未来时,我们需要 确保每一位 计算机和数据科学家 都接触过文科,就像每个文科专业的人都需要掌握一定的计算机和数据科学知识一样。
我们还需要在计算机和数据科学课程中更加注重伦理道德学科的内容,可以采取专门课程的形式,也可以将其纳入几乎所有课程的内容,或者二者兼具。
最后,一场关于人工智能道德准则的全球对话需要一个更大的舞台。不仅需要让技术专家、政府、非政府组织和教育工作者发表见解,也需要为哲学家和世界上许多宗教的代表提供席位。
在我们思考人工智能的未来之时,“保持你的人性”是一个我们所有人都应听取的好建议。
扫描下方二维码直接登录“太图之声”手机版首页
往期回顾:2022年太图之声