人工智能时代,技术伦理更要向善

2019-08-14 6:36:46 沙发 人工智能

行业观察:人工智能时代,技术伦理更要向善

随着人工智能技术的快速发展和广泛应用,智能时代的大幕正在拉开,无处不在的数据和算法正在催生一种新型的人工智能驱动的经济和社会形式。人工智能能够成为一股“向善”的力量,持续造福于人类和人类社会,但也带来了隐私保护、虚假信息、算法歧视、网络安全等伦理与社会影响,引发了对新技术如何带来个人和社会福祉最大化的广泛讨论。人工智能伦理开始从幕后走到前台,成为纠偏和矫正科技行业狭隘的技术向度和利益局限的重要保障。正如有学者所言,要让伦理成为人工智能研究与发展的根本组成部分。

在此背景下,从政府到行业再到学术界,全球掀起了一股探索制定人工智能伦理原则的热潮。例如,OECD和G20已采纳了首个由各国政府签署的人工智能原则,成为人工智能治理的首个政府间国际共识,确立了以人为本的发展理念和敏捷灵活的治理方式。我国新一代人工智能治理原则也紧跟着发布,提出和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理八项原则,以发展负责任的人工智能。可见,各界已经基本达成共识,以人工智能为代表的新一轮技术发展应用离不开伦理原则提供的价值引导。

因此,我们认为需要构建以信任、幸福、可持续为价值基础的人工智能伦理,以便帮助重塑数字社会的信任,实现技术、人、社会三者之间的良性互动和发展,塑造健康包容可持续的智慧社会。

构建让人信任的人工智能规则体系

虽然技术自身没有道德、伦理的品质,但是开发、使用技术的人会赋予其伦理价值,因为基于数据做决策的软件是人设计的,他们设计模型、选择数据并赋予数据意义,从而影响人们的行为。所以,这些代码并非价值中立,其中包括了太多关于人类的现在和未来的决定。所以,技术无关价值的论断并不正确。现在人们无法完全信任人工智能,一方面是因为人们缺乏足够信息,对这些与我们的生活和生产息息相关的技术发展缺少足够的了解;另一方面是因为人们缺乏预见能力,既无法预料企业会拿自己的数据做什么,也无法预测人工智能系统的行为。

行业观察:人工智能时代,技术伦理更要向善

因此,需要构建能够让人们信任的人工智能规则体系,让技术接受价值引导。作为建立技术信任的起点,人工智能发展与应用需要遵循四个方面的理念,给人工智能发展提供必要的价值引导。

一是可用。发展人工智能的首要目的,是促进人类发展,给人类和人类社会带来福祉,实现包容、普惠和可持续发展。为此,需要让尽可能多的人可以获取、使用人工智能,让人们都能共享技术红利,避免出现技术鸿沟。可用性还意味着以人为本的发展理念、人机共生、包容性以及公平无歧视。要求践行“经由设计的伦理”理念,将伦理价值融入到人工智能产品、服务的设计当中。

二是可靠。人工智能应当是安全可靠的,能够防范网络攻击等恶意干扰和其他意外后果,实现安全、稳定与可靠。一方面人工智能系统应当经过严格的测试和验证,确保其性能达到合理预期;另一方面人工智能应确保数字网络安全、人身财产安全以及社会安全。

三是可知。人工智能应当是透明的,是人可以理解的,避免技术“黑盒”影响人们对人工智能的信任。目前,学界和业界已在致力于解决人工智能“黑盒”问题,实现可理解的人工智能算法模型。此外,算法透明不是对算法的每一个步骤、算法的技术原理和实现细节进行解释,简单公开算法系统的源代码也不能提供有效的透明度,反倒可能威胁数据隐私或影响技术安全应用。相反,在人工智能系统的行为和决策上实现有效透明将更可取,也能提供显著的效益,例如在适当的时候对人工智能系统的决策和行为提供说明,而不是一味追求技术透明。最后,在发展和应用人工智能的过程中,应为社会公众参与创造机会,并支持个人权利的行使包括隐私、表达自由、救济等。

四是可控。人工智能的发展应置于人类的有效控制之下,避免危害人类个人或整体的利益。短期来看,发展和应用人工智能应确保其带来的社会福祉显著超过其可能给个人和社会带来的可预期的风险和负面影响,确保这些风险和负面影响是可控的,并在风险发生之后积极采取措施缓解、消除风险及其影响。长期来看,虽然人们现在还无法预料通用人工智能和超级人工智能能否实现以及如何实现,也无法完全预料其影响,但应遵循预警原则,防范未来的风险,使未来可能出现的通用人工智能和超级人工智能能够服务于全人类的利益。

当然,信任的建立,需要一套规则体系。在这些原则之下,人们可以探索制定标准、法律、国际公约等。需要采取包容审慎、敏捷灵活的治理方式,可以采取事后监管或者通过出台标准、行业公约、伦理框架、最佳实践、技术指南等调整人工智能等新技术的发展应用,支持行业自律。

发表评论

电子邮件地址不会被公开。 必填项已用*标注