现在,人工智能几乎无处不在。从我们决定买哪一本书,到预订哪一趟航班,从是否能够找到合适的工作,到是否能够获得银行贷款,甚至诊断各种疑难杂症,人们生活中的方方面面都有着人工智能的影子。
关于9游会的生活,很大程度上已经可以由人工智能这种复杂的软件系统来自动决策。毋庸置疑,在诸多科技界企业的推动下,人工智能技术在过去几年中取得了令人惊讶的巨大进步,而且业内很多人也相信人工智能会让我们的生活变得更好。
显而易见,这种趋势不可阻挡,整个社会都在为人工智能初创企业注入大量资金,而包括亚马逊、facebook以及微软等高科技公司都针对人工智能开设了新的研究实验室。现在的软件就是人工智能,这种说法目前来看并不夸张。
很多人预计,人工智能对社会的冲击甚至要大于互联网。当被问及在这个千变万化的世界中,人工智能技术将要为人类带来何种影响时,很多技术专家毫无悬念地将问题集中在道德方面。
如何保证公平受益?
随着人工智能的普及,机器系统在高风险决策领域的作用越来越重要——从信贷、保险再到第三方决策以及医疗保险、假释等问题。未来,人工智能技术将代替人工决定谁会获得重要机遇,而谁又将被抛弃,由此将会引发一系列关于社会公正的问题。
譬如在生物医学领域,人工智能有着惊人潜力。人工智能系统有助于分析基因组、蛋白质组和新陈代谢组等的实验数据,收集分析电子病历和相应的健康数据。聚类分析技术能够帮助科学家判断新综合征,而模式识别技术能够将疾病与疗法相匹配。但是由于现有医疗条件的不平衡,只有少部分人才能够从先进医疗技术中受益。
另一方面,人工智能,特别是机器学习技术的完善往往取决于训练数据。微软的研究人员指出:“当采集的数据存在偏差时,用这种数据所训练的人工智能系统也会存在相应偏差,其产生的模型或者结果势必会复制并放大这种偏差。在这种情况下,人工智能系统所做出的决策将会产生差别效应。而这种不公平要比人为偏见和不公要隐晦得多。”
peter norvig是谷歌研究主管,也是机器学习领域的先驱人物。在他看来,大数据推动下的人工智能技术获得了前所未有的成功,但关键问题在于如何确保这些系统能够真正有效地改善整个社会,而不仅仅只是让那些控制人工智能系统的群体受益。“通过实践证实,人工智能在执行各种任务时非常有效,从图像识别,到自然语言理解和撰写,再到疾病诊断,人工智能都发挥出了重大作用,”peter norvig指出,“现在的挑战是如何确保每个人都能够从中受益。”
如何审查机器运行?
科学家之所以会担忧人工智能引发公平问题,最大的根源在于现有软件的复杂性,这意味着我们无法准确衡量人工智能系统为什么要这样做。现在的人工智能技术主要基于机器学习,但对于人类来说,其并不能真正搞清楚这种系统到底是如何运行的,所以我们不得不信任它。从根本上说,问题关键在于找到新的方法去检测和审查人工智能的运行。
哈佛法学院互联网法学教授jonathan zittrain则认为,对于人工智能的潜在危险的审查,会随着计算机系统变得越来越复杂而面临越来越多的阻碍。他指出,“我担心随着系统的复杂性和紧密耦合性越来越高,人类的自主性会越来越少。如果‘我们设定规则又忘记了规则’,我们会对系统的进化感到懊悔。在那种情况下,甚至于伦理道德都无从考虑。”
而北卡罗来纳州杜克大学的人类和自动化实验室主任missy cummings则发问,“我们如何确保这些系统是绝对安全的?”她曾是一名海军女飞行员,而现在则是无人机专家。
现在业内普遍意识到人工智能需要进行监督,但没有人清楚该怎么做。
当然,在一个快速发展的社会中,监管机构往往在扮演着一个追赶者的角色。在刑事司法系统以及医疗保健等关键领域,人工智能已经被尝试用来进行决策,譬如做出是否假释的决定或者是诊断疾病。但是问题来了,如果将决策权交给机器,我们就有可能对结果失去控制,谁能保证系统在各种情况下一定是正确的?
微软研究院的主要研究员danah boyd则认为,被部分人写入人工智能系统的价值观存在诸多问题,而恰恰是这部分人应该对系统负责。很多监管机构、社会群众以及社会学者都希望人工智能技术能够实现公平,具备伦理道德,但这种希望都是虚无缥缈的。
如何应对工作替代?
此外,人工智能普及也会对人类自己的本职工作产生根本影响。人工智能能够让机器人从事更加复杂的工作,从而取代更多人类劳动者。譬如苹果和三星手机的代工厂商去年就宣布,将使用机器人代替6万名工人,这在当时引起了轩然大波,惹得社会上也人人自危。无独有偶,福特位于德国科隆的工厂也让机器和人在一起工作。机器人的广泛使用会导致人类对人工智能技术产生过分依赖性。
现在很多医疗机构已经在诊断和手术中引入更多的机器人,特别是机器人在疑难手术中能够表现出更精湛的医术,这就可能使经由历史积累的医学技能和知识裹足不前,进而使社会变得更为脆弱。而据麦肯锡的全球研究报告,到2025年,30%的公司审计工作将由人工智能完成。人工智能将取代许多人的工作,其中也包括医生、财务经理以及公司高管等收入较高的中产职业。
此外,自动化程度的加大不仅影响到人类就业,也会对人类心理健康产生连锁反应。生化伦理学家、奥巴马前医疗顾问ezekiel emanuel指出,“如果说什么能赋予人们生活的意义,主要有3个方面:有意义的关系、热情高涨的兴趣以及有意义的工作。其中有意义的工作是一个人建立身份认同的重要因素。”而失业率高的地区,民众自杀、滥用药物以及罹患抑郁症的风险也会成倍增加。
但我们不必悲观,人工智能对人类的威胁始终是有限的。尽管人工智能在记忆和计算方面的能力要远超人类,但它始终是在学习和总结。而人类所具备的感知、情感、想象、创造等特质是人工智能所无法企及的,这也注定了,人类是无法被人工智能逾越的。
如何有效进行监督?
人工智能的迅猛发展势必会产生各类社会问题。很多行业内人士已经意识到,相关问题的出现会导致人们对人工智能伦理方面的要求越来越多。麻省理工学院技术部专门从事法律道德的专家kate darling指出:“公司肯定会遵循市场规律,这并不是坏事。但我们不能为了市场利益而放弃道德。”
darling指出:“诸如谷歌等大公司已经成立了道德委员会,专门监督人工智能系统的开发和部署。这源于4年前,当时谷歌以5.25亿美元的价格收购了英国的人工智能创业公司deepmind。deepmind创始人提出的交易条件之一就是谷歌要成立一个人工智能道德委员会,这似乎标志着负责任的人工智能研发新时代正在到来。但事实上,谷歌对于道德委员会的成员组成讳莫至深,实际上该委员会发挥的作用也相当有限。
2016年9月,facebook、谷歌、亚马逊、ibm、微软成立了一个联盟,旨在开发解决与人工智能相关的安全隐私问题。该联盟还宣布苹果也将加入其中。此外,openai还致力于推动人工智能开源,从而让利益为全社会所共享。谷歌研究主管norvig认为,“机器学习必须要公开,我们所有人只有通过开源代码才能够普遍受益。”
然而,为公众揭开人工智能技术的神秘面纱其实更为重要。对于没有计算机科学知识的人来说,真正理解人工智能决策非常困难,更不用说审查或规范这些技术。一些业内人士认为,如果没有对人工智能技术的理解,诸如律师、决策者和一般公众就很难真正理解或想象人工智能带来的风险。