到目前为止,人们谈论了太多有趣但无关紧要的未来问题,而对更难的当前问题讨论得不够。对奇点的担忧就是一个例子。另一个经典的当前例子是关于“电车难题”的文章和调查的激增:无人驾驶汽车中的人工智能应该拯救车主的生命还是行人的生命,80 岁的人还是 8 个月大的婴儿的生命?这些问题很有趣。但没有设计师真正研究过这些问题,很少有人不得不做出这些选择。
与此同时,目前大量人工智能算法正在做出有关医疗、缓刑或抵押贷款的重要决定,但几乎没有人关注或审查。如果聪明的头脑能够被引导到现实问题上,那就更好了,例如:面部识别算法应该如何监管或问责(新成立的阿达·洛夫莱斯研究所正在研究这一主题),或者如果有证据表明定向社交媒体广告助长了强迫性或不健康的行为,监管机构应该如何对待它(英国政府数据伦理与创新中心正在研究的问题之一)。这些更细致的分析很快证实了演绎分析的局限性;它们还暗示了“正确”答案可能会随着时间的推移而改变,这取决于经验。
女孩和监视器
3. 伦理道德常常不可避免地与政治相关。
人工智能伦理专家行业规模很小,而且有大量资金流入,尤其是在硅谷。但它取得了什么成就?到目前为止,诚实的回答是:没有取得多大成就。对人工智能伦理产生严重影响的主要是新闻报道(如剑桥分析公司的曝光)、激进主义(如许多反对自主武器的举措)、官僚主义(如 GDPR)或对滥用行为的详细学术分析。专业人工智能伦理学家没有取得多大成就。在某些情况下,这是因为他们已经被大公司过度收买(具有讽刺意味的是,其中许多大公司现在有人工智能伦理政策,但没有其他方面的伦理政策)。
一个主要的教训是,道德不可避免地具有政治性。如果你 智利电话号码数据 想影响道德行为,你可能必须像政治活动家一样思考,而不是像空谈哲学家一样思考。
一些顾问后来才意识到,他们可以通过挑战或辞职而不是被收买来行使更多权力。安·卡沃基安 (Ann Cavoukian) 是全球领先的隐私设计倡导者之一,去年她从谷歌的多伦多人行道实验室辞职,因为她觉得这样比继续参与可以发挥更大的影响力。但据我所知,Facebook 的人工智能伦理顾问中没有一个人辞职或公开利用他们的影响力来改变公司的行为。相反,所有严肃的挑战都来自活动人士。
展望未来,很明显,围绕人工智能的许多最困难的问题将同时是伦理和政治问题:如何处理人类增强工具的非常不平等的使用权;如何处理算法支持的真相和谎言;如何处理巨大的权力不对称。
一个主要的教训是,道德不可避免地具有政治性。如果你想影响道德行为,你可能必须像政治活动家一样思考,而不是像空谈哲学家一样思考。