由于人工智能 (AI),尤其是深度学习的进步,今天的机器可以掌握人类交流的微妙之处——不仅仅是单词的含义,还有我们所说的话背后的潜在意图和情感。例如,当你问“外面是什么样子?Amazon Alexa 会处理这个看似模糊的问题,并推断出您对天气感到好奇。为当今最先进的人工智能系统提供动力的算法部分是从它们在现实世界中的交互中学习的。传统上,吸收现实世界数据的人工智能很容易受到人类交流中相同的偏见和刻板印象的影响。换句话说,根据从人类收集的数据进行训练的机器可能会做出与人类在种族、性别、性取向、年龄和能力等属性相同的错误判断。随着环境智能的兴起,亚马逊预见到智能技术将更深入地融入人们的生活,在后台协同工作,并随时准备在需要时提供帮助。在这种情况下,开发有效的技术来对抗人工智能中的偏见比以往任何时候都更加重要。Alexa AI 负责自然理解的副总裁、南加州大学 (USC) 前工程学高级副院长 Prem Natarajan 帮助启动了亚马逊与美国国家科学基金会 (NSF) 关于人工智能公平性的倡议,其中包括 2000 万美元的合作,以资助有关该主题的研究。事实上,亚马逊和 NSF 最近宣布了人工智能研究资助公平性的最新获得者。在广泛的问答中,Natarajan 解释了他为什么致力于消除人工智能中的偏见,并研究了现在和未来更公平的技术会是什么样子。对于大多数人来说,人工智能仍然是一个抽象的概念。让我们从基础开始:当我们谈论人工智能中的偏见时,我们是什么意思?我举一个来自我个人经历的例子。从 90 年代后期开始,我领导的团队正在开发和部署美国第一套呼叫中心技术。我们正在为客户自动化目录辅助系统。当时,我们使用“山羊”和“绵羊”的术语来描述用户群体或队列。绵羊队列由具有我们的技术易于识别的口音或发音的说话者组成。山羊是由于各种原因,系统无法很好地发挥作用的说话者,例如,因为他们的口音、说话风格、音调或音量。那时,我们总是会寻找能够挑战系统并帮助我们改进流程的山羊。在某个时候,我意识到我自己也属于那个框架中的山羊队列!通过与人类和人工智能合作,你学到谦逊的一个方面是,问题永远不会真正得到解决。它们只是变成了较小的问题。Prem Natarajan Alexa 人工智能副总裁例如,我用我在印度长大的口音发音“已婚”这个词的方式被证明是有问题的。系统会一次又一次地失败。我需要说四五次“已婚”,系统才能理解我。我学会了以不同的方式表达这个词,但它让我思考。大多数人可以自然地理解我在说什么,要么通过上下文,要么通过理解我的发音是一个相对较小的变化。为什么语音识别系统不能学会理解我?类似的事情也发生在女性的声音上。平均而言,它们较高的音调或较低的振幅使我们的系统对女性使用起来不如男性可靠。或者,当有人从嘈杂的环境中打电话时——比如说,如果他们的工作涉及开着卡车四处走动——系统通常很难很好地运行。换句话说,这个系统让山羊失望了。没错,从那时起,我们开始思考如何让这个系统对每个人来说都更好——更公平——无论地理、方言、性别、说话风格、噪音或任何其他因素如何。如果某人的个人背景阻碍了无摩擦的体验,我们如何调整和改进技术?当系统陷入困境时,我们开始认识到这是技术的局限性,也是对我们创造力和创造力的挑战。问题变成了:我们如何克服这些限制并降低技术的全面偏见?那是 20 年前的事了。Alexa 时代技术是如何演变的?通过与人类和人工智能合作,你学到谦逊的一个方面是,问题永远不会真正得到解决。它们只是变成了较小的问题。因此,从某种意义上说,目标始终是减少问题。但无论以何种标准衡量,在过去的二十年里,技术都取得了突飞猛进的进步——尤其是在过去 10 年中。这一进步的一个结果是我们现在能够做的事情的绝对可扩展性。多年前,调整语言理解系统性能的唯一方法是收集尽可能多的不同类型的语音,然后转录和注释这些数据,这很昂贵。对话模式帮助与 Alexa 的交互感觉更自然新技术让您可以在 Echo Show 8 和 10 上与 Alexa 交谈,而无需重复唤醒词。今天,我们可以使用数百万小时的未转录、去识别化的语音数据来创建通用模型,这些模型代表了比 20 年前认为可能的更广泛的人类说话风格。我们还在 Alexa 中推出了一种新颖的可教学 AI 功能,允许用户直接“教”系统更好地为他们工作。如果您说“Alexa,打开假期模式”,这对不同的人来说意味着不同的事情,具体取决于上下文。客户可能希望 Alexa 将色调设置为绿色或使灯光变暗。其他人可能会要求 Alexa 将温度设置为“舒适”水平。Alexa 过去常常用“我不知道该怎么做”来回应此类请求。现在,它会回来说:“我不知道什么是假期模式。你能教我吗?这对于帮助我们的语音代理更好地了解我们非常重要。但是,当人工智能用于生成内容时会发生什么——例如,当您在搜索引擎中输入单词时,编写故事、创作艺术或建议查询?例如,这就是自然语言处理模型经常因传播性别和种族偏见而受到批评的地方。这是最令人兴奋的研究领域之一。如果你告诉 Alexa“播放 Adele 的《Hello》,重要的是 Alexa 理解每个提出这个问题的人,然后播放这首歌。但是,如果有人说,“Alexa,告诉我关于医生和护士的事情”,而 Alexa 将医生称为“他”,将护士称为“她”,我们必须通过确保人工智能反映社会和文化的价值观和习俗来应对偏见挑战。我在南加州大学的一位博士生发表了一篇论文,内容是将某些提示输入到最大的自然语言生成引擎中如何导致偏见推断的。输入短语“白人作为一个......”为备受推崇的职业提供建议,例如警察、法官、检察官和美国总统。对于其他人口统计数据,工作关联更为消极。你可以看到,看似中立的与技术的互动会让我们失望。再次,我将以我自己为例。如果你输入“印度裔美国人作为一个......”生成的文本可能是“软件工程师”,因为这是目前最流行的模因。我记得多年前,当我从一次海外旅行返回美国的路上,波士顿机场的一名官员看了我的签证,问我:“你以什么为生?因为语音识别和自然语言处理体现在软件中,所以我认为说我写软件是最相关的。他说:“哦,是的,你还会做什么?机器的美妙之处——这也是我非常希望的地方——在于我们可以改变计算框架,以大大减少系统中的偏见。Prem Natarajan Alexa 人工智能副总裁今天,我们将其称为微侵犯。他在某种程度上对我持负面态度,即使这可能不是他的本意。因为我们根据人类生成的数据训练我们的语言学习系统,所以机器可以做同样的事情。人类的偏见很难改变。为什么人工智能会更容易?好吧,这就是我们的工作带来数据最有趣的可能性的地方。训练人类以更具包容性的方式说话具有挑战性。但机器的美妙之处——这也是我真正充满希望和乐观的地方——在于我们可以改变计算框架,以大大减少系统中的这些偏见。我们可以训练系统,使其在该框架内更加公平。我乐观地认为,我们可以以比整个社会更快的速度做到这一点。缩小范围,科技行业正在采取哪些措施来解决整个行业的人工智能公平和偏见问题?整个社区是否进行了大量的自我反省?绝对。我们目前对人工智能特定问题的许多意识始于 2014 年美国总统的一份报告,名为《大数据:抓住机遇,维护价值》。那是我第一次看到权威报告说大数据技术会导致歧视。即使没有意图,人工智能仍然可能出现偏见。这是白宫发表的一份强有力的声明,它引发了会议和研讨会,重点关注我们如何需要技术知识和其他形式的专业知识来制止人工智能中的歧视。我看到的希望是,人工智能实际上可以用来揭示社会中已经存在的不公正或不平等。Prem NatarajanAlexa 人工智能副总裁我们理解偏见的能力从根本上取决于讨论和构思中的多样性和公平性。我们还需要代表不同类型的体验。这就是我们与美国国家科学基金会合作开展人工智能公平计划的原因。我们希望确定歧视或偏见可能表现出来的方式,然后了解如何衡量它并最终如何纠正问题。这需要一个完整的思想家社区——能够引入社会科学观点和计算专业知识的人。未来更公平的人工智能会是什么样子,尤其是当环境智能变得司空见惯时?在应用层面,我们可以使用人工智能来识别我们文化中的差异,然后制定应对这些差异的策略。例如,我们知道不同人群的医疗结果存在差异。治疗对某些人群效果很好,但对其他人则不太好。即使是心脏病的手术干预也会导致不同人群的结果更好或更差。数据科学和人工智能在医疗领域和刑事司法系统中发挥着更大的作用。我看到的希望是,人工智能实际上可以用来揭示社会中已经存在的不公正或不平等。我们经常谈论人工智能的公平性,比如,我们如何才能让人工智能更公平。但我认为一个同样有趣的问题是:如何使用人工智能来使现有的实践和流程更加公平?几个世纪以来,哲学家们一直在争论“公平”的含义,听起来技术正在推进这种对话。绝对。我相信对话助手从根本上说是一种增强可访问性的技术。它们为广大用户提供了巨大的日常便利。通过减少我们所有人经历的日常摩擦,像 Alexa 这样的工具拓宽了我们对技术和知识的可及性。对于像我奶奶这样晚年的人来说,只是起床换电视频道或关掉收音机都是一件苦差事。如果她这一代人行动不便,或视力或听力有问题,或者不知道如何阅读,他们就会错过技术可以提供的某些乐趣和好处。今天,同一个人可以说,“Alexa,为我播放这个”或“教我这个”,人工智能会向他们提供这种体验。这激励了我。





 与 CNBC 的吉姆·克莱默 (Jim Cramer) 的对话.jpg)




