AI寒冬将至?行业大咖呼吁重启AI再出发
611
AI仍在继续兴起,尽管它并没有成为人们所期待的那种广泛性力量。在过去几年中,AI领域的发展速度令人震惊。自2000年以来,活跃的AI初创企业数量增加了14倍,风投对AI初创企业的投资增加了6倍,需要AI技能的工作比例增长了4.5倍。
不过,领先的互联网数据统计机构Statista发布的调查结果显示,截止2017年,全球只有5%的企业在其流程和产品中广泛采用了AI,32%的企业尚未采用AI,22%的企业甚至没有采用AI的计划。知名AI研究人员菲利普·皮恩尼斯基(Filip Pieniewski)最近在科技媒体Venturebeat上撰文,阐述了他的观点,宣称“AI寒冬即将到来。”
皮恩尼斯基说:“我们现在正处于2018年中后期,AI领域的情况已经发生了变化。尽管表面上看似乎并非如此,比如NIPS会议仍然超受欢迎,企业公关团队在新闻发布会上仍然充斥着AI,美国连续创业家伊隆·马斯克(Elon Musk)仍在承诺打造无人驾驶汽车,谷歌也始终在推动吴恩达(Andrew Ng)的理念,即AI比电力更强大。但这种叙述已经开始崩溃。”
我们极力宣传无人驾驶汽车的愿景。今年春天早些时候,一名行人被无人驾驶汽车撞死,这一事件引起了人们的警觉,人们不仅质疑这项技术,还质疑无人驾驶系统决策的背后是否存在道德问题。无人驾驶汽车的问题不是在挽救1个人还是5个人之间做出简单的二元选择,而是在演变成一场关于良知、情感和感知的辩论,使机器做出合理决策的道路变得更加复杂。
皮恩尼斯基等人得出的结论是:全自动无人驾驶汽车的梦想可能比我们想象的遥远得多。AI专家们越来越担心,无人驾驶系统要想可靠地避免事故,可能还需要数年甚至数十年时间的努力。”
|AI落地只是试点
让我们以史为鉴来看下,云计算和网络工业都花了大约5年的时间才开始对人们的生活产生重大影响,而这些行业影响市场的重大转变也花了近10年时间。我们正在为AI设想一个类似的时间表。正如平台技术、开源和封闭源系统以及AI技术方面经验丰富的工程主管凯伦·班尼特(Karen Bennet)解释的那样:
“为了让每个人都能采用,一款产品需要方便可用,需要是能够扩展至被所有人使用,而不仅仅是服务于数据科学家。该产品将需要考虑数据生命周期中数据捕获、准备、培训模型和预测等环节。随着数据被存储在云端,数据管道可以不断地提取,并准备用它们来训练模型,从而做出预测。模型需要借助新的训练数据不断改进,从而保持模型的相关性和透明性。这就是目标和希望。”
我(本文作者杰西·琼斯(Jessie Jones))和班尼特都来自科技和AI初创企业。我们所见证的以及在AI社区中与同行讨论中我们所意识到的是,我们正在众多商业问题上进行广泛的实验,然而这些实验往往停留在实验室中。这篇最近的文章证实了当今普遍存在的AI炒作问题:
“AI技术供应商往往会受到激励,让他们的技术听起来比实际中更强,但这也暗示了它们在现实世界中的吸引力比实际上更大……企业中的大多数AI应用程序不过是‘试点’。在AI领域兜售营销解决方案、医疗保健解决方案和金融解决方案的供应商,基本上只是在测试这项技术。在任何特定的行业中,我们发现,在销售AI软件和技术的数百家供应商中,只有大约三分之一的公司具备开发AI所需的技能。”
风投公司意识到,他们可能在一段时间内看不到投资回报。然而,AI还没有准备好迎接黄金时段的到来,原因之一就在于几乎无处不在的AI实验几乎都没有看到曙光。
| 算法需要负责任吗
我们听说过AI“黑箱”,即研究人员目前还不清楚AI如何做出决策。这种做法是在银行和大型机构面临要求问责制的合规标准和政策的情况下出现的。由于系统是作为“黑箱”操作的,只要这些算法的创建经过了审查,并且满足了关键涉众的一些标准,人们就可能对算法产生固有的信任。
鉴于大量证据表明开发中的算法存在缺陷,以及由此产生意想不到的有害结果,这种观点很快就引发了争议。我们的许多简单系统都像“黑箱”一样运作,超出了任何有意义的审查范围,原因包括公司有意保密、缺乏足够的教育以及缺乏了解如何批判性地检查输入、结果,最重要的是,不理解为何会出现这些结果。
班尼特表示:“如今,AI行业正处于企业准备采用的早期阶段。AI是非常有用的,可以通过大量的数据进行发现和分析,但是它仍然需要人类的干预作为对数据及其结果进行评估和行动指南。”
图:截至2017年,全球商业组织中的人工智能的采用水平
班尼特还澄清说,如今的机器学习技术使数据能够被标记出来,以帮助识别真知灼见。然而,作为这个过程的一部分,如果有些数据被错误地标记,或者没有足够的数据训练,亦或者有问题的数据产生偏见,很可能会出现糟糕的决策结果。她还表示,目前的流程仍在不断完善:“目前,AI都是关于决策支持的,以提供洞察,让企业可以从中得出结论。在AI发展的下一个阶段,AI可将数据中的动作自动化,还有些额外的问题需要解决,比如偏见、可解释性、隐私性、多样性、伦理和持续的模型学习等。”
这表明,要想真正理解AI产品,需要有个关于对象和人的常识世界模型,以帮助AI去真正了解它们。一个模型只暴露在有限数量的标记对象和有限种类的训练中,这将限制这个常识世界模型的有效性。企业需要进行研究,以确定模型如何处理其输入,并以人类可以理解的方式得出其结论。亚马逊发布的面部识别技术Rekognition,是目前正在研发和许可使用的AI技术的典型例子,但其有效性存在明显的差距。
美国公民自由联盟发布的一项研究称:“亚马逊的技术将28名国会议员的照片与罪犯公开的脸部照片混淆了。鉴于亚马逊积极向美国各地的执法机构推销自己的Rekognition,这显示其还远远不够好。”算法正义联盟(Algorithmic Justice League)的创始人乔伊·布拉马维尼(Joy Buolamwini)在最近的一次采访中,呼吁暂停这项技术,称其无效,并需要更多监管。此外,在这些系统被公开发布之前,政府应该制定更多相关标准。
| 数据的完整性问题
如今的AI需要大量的数据才能产生有意义的结果,但无法利用其他应用程序的经验。虽然班尼特认为克服这些局限性的工作正取得进展,但是在模型以可扩展的方式应用之前,学习的转移是有必要的。然而,在某些情况下,AI可以在今天得到有效的应用,比如在图像、声音、视频和翻译语言方面的洞察力。
企业正在学习应该关注的问题:
1)数据的多样性,包括适当人群的代表性。
2)在创建算法的过程中确保不同的经验、观点和思维。
3)数据质量优先于数量。这些都是非常重要的,特别是随着偏见的引入,对AI的信任和信心数据都在下降。例如,在土耳其语中属于中性的语言,谷歌翻译中的AI模型在将其翻译成英语时却错误地预测了性别。
此外,癌症识别AI在图像识别训练时只使用皮肤白皙的人照片。从上面的计算机视觉例子中,乔伊·布拉马维尼(Joy Buolamwini)测试了这些AI技术,并意识到它们在识别男性VS女性或浅色VS深色皮肤方面更有效。识别男性的错误率低至1%,而识别深色皮肤女性的错误率则高达35%。这些问题的发生是因为没有使用多样化的数据进行培训。
班尼特承认:“AI的概念很简单,但通过获取越来越多的真实世界数据,算法会变得越来越聪明,然而要解释这些决策却变得极其困难。数据可能会不断变化,AI模型需要进行过滤,以防止错误的标签,比如将非洲人贴上大猩猩的标签,或者将熊猫误认为长臂猿。企业依靠错误的数据来做出决策,将导致更加糟糕的结果。”
幸运的是,由于AI的狭义存在,很少有公司会根据今天的数据做出重大商业决策。从我们所看到的情况来看,大多数解决方案主要是产品推荐和个性化营销沟通。由此得出的任何错误结论都不会对社会造成太大影响,至少目前如此。使用数据来进行业务决策并不新鲜,但发生变化的是使用结构化和非结构化数据的数量和组合正呈指数级增长。AI使我们能够持续性地使用来自他们源头的数据,并更快地获得洞察力。对于具有处理来自不同数据源的数据和结构能力的企业来说,这意味着巨大的机会。
然而,对于其他企业来说,大量的数据可能代表着一种风险,因为不同的来源和格式使得转换信息变得更加困难。这些信息来自电子邮件、系统日志、网页、客户记录、文档、幻灯片、非正式聊天、社交网络以及图像和视频更丰富的媒体。数据转换仍然是开发干净数据集和有效模型的绊脚石。
| 偏见比我们意识到的更普遍
许多商业模型都存在偏见,以最小化风险评估和优化目标机会,虽然它们可能产生有利可图的商业结果。但众所周知,它们会导致意想不到的后果,导致个人伤害,加大经济差距。保险公司可能会利用位置信息或信用评分数据向较贫穷的客户发放更高的保费。银行可能会批准信用评分较低的贷款申请,尽管这些人已经负债累累,可能无法负担更高的贷款利率。
由于AI的引入不仅会使现有的偏见永久存在,而且这些学习模型的结果可能会推广到加深经济和社会鸿沟的程度,因此围绕着偏见的谨慎程度也越来越高。在当前情况下,偏见出现在类似“替代性制裁的惩罚性罪犯管理分析”(Correctional Offender Management Profiling for Alternative Sanctions,简称COMPAS)的算法中。
COMPAS是由名为Northpointe的公司创建的,目的旨在评估审前听证中被告犯罪行为的风险,并作出预测。COMPAS初步研究中使用的问题类型足以显示,无意中对待黑人的偏见会在系统中延续。在没有公共标准可用的情况下,Northpointe得以自己创建公平的定义,并在没有第三方评估的情况下开发了一种算法。这篇文章证明:一个流行的算法在预测犯罪方面并不比随机的人更好。
如果这款软件和未受过训练的人对在线调查的反应一样准确,我认为法院在做决定时应该考虑到这一点。班尼特称:“当我们试图修复现有系统以最小化这种偏见时,关键是要对不同的数据集进行模型训练,以防止将来产生危害。”由于错误模型的潜在风险遍布企业和社会,企业没有治理机制来监督不公平或不道德的决策,而这些决策将无意中影响最终消费者。
| 对隐私日益增长的需求
我和班尼特都曾在雅虎工作过,我们与强大的研究和数据团队合作,能够在我们的平台上对用户的行为进行仔细研究。我们不断地研究用户行为,了解他们在音乐、主页、生活方式、新闻等众多属性方面的倾向。当时,对数据使用没有严格的标准或规定。隐私被降级为平台上用户被动遵守的协议中的条款和条件,与今天的情况类似。
最近的剑桥分析公司滥用Facebook用户数据丑闻把个人数据隐私问题推到了风口浪尖。主要信贷机构(如Equifax)、最近的Facebook和Google+频繁发生的数据泄露,继续加剧了这一问题。2018年5月25日生效的欧洲《通用数据保护条例》(GDPR)将改变企业的游戏规则,特别是那些收集、存储和分析个人用户信息的公司。它将改变企业经营多年的商业规则。毫无节制地使用个人信息已经到了紧要关头,因为企业现在会意识到,数据的使用将受到重大限制。更重要的是,所有权之争更为激烈。
我们看到了定位广告的早期效果。这个价值750亿美元的行业,预计到2021年将以21%的年复合增长率增长,但仍受到Facebook和谷歌的寡头垄断的阻碍,它们获得了大部分收入。现在,GDPR加大了风险,让这些广告技术公司担负起更多责任。这种风险非常高,以至于(广告商)必须非常确定,你被告知的内容实际上是符合要求的。对于什么最终会构成违规,似乎存在着足够多的普遍困惑,人们对此采取了广泛的方法,直到你能够准确地了解合规。
尽管监管最终会削弱营收,但至少就目前而言,移动和广告平台行业也正面临着越来越多的审查,这些行业多年来一直在从消费者身上赚钱。这一点,再加上围绕既定实践的审查,将迫使行业改变收集、聚合、分析和共享用户信息的方式。对隐私进行操作需要时间、重大投资以及心态上的改变,这些将影响企业政策、流程和文化。
|AI与伦理道德不可避免的结合
AI的普遍因素确保了社会效益,包括简化流程、增加便利性、改进产品和服务,以及通过自动化检测潜在的危害。在最后一点上妥协可能意味着,更容易依据更新的制造过程、服务和评估解决方案、生产和产品质量结果来衡量投入/产出。随着关于AI的讨论和新闻的持续,“AI”这个术语和“伦理”的结合,揭示了越来越严重的担忧,即AI技术在哪些方面会造成社会损害,从而考验人类的良知和价值观。
图:有关AI及其道德标准的讨论正在增多
除了个人隐私问题,今天我们看到了一些近乎不合情理的创新例子。如前所述,Rekognition被用于执法和公民监视,而该技术被认为是错误的。谷歌决定向美国国防部提供AI技术支持,用于分析无人机拍摄的视频,目标是帮助创建一个复杂的系统,在名为project Maven的项目中对城市进行监测,许多员工为此发起抗议,甚至不惜辞职。
决策者和监管机构将需要引入新的流程和政策,以恰当地评估AI技术的使用方式、用途和过程中是否会出现意外后果。班尼特指出了AI算法中数据使用的新问题需要考虑,包括如何检测敏感数据字段并匿名化它们,同时保留数据集的重要特性?我们能在短期内训练合成数据作为替代品吗?在创建算法时,我们需要问自己一个问题:我们需要哪些字段来提供我们想要的结果?此外,我们应该创建哪些参数来定义模型中的“公平”,这意味着是否会区别对待两个个体?如果是这样,原因是什么?我们如何在我们的系统中持续监控这一点?
|AI寒冬?也许是AI走向更美好未来的良机
AI已经走了很长的路,但还需要更多的时间来成熟。在一个自动化程度和认知计算能力不断提高的世界里,即将到来的AI寒冬也为企业提供了必要的时间,让它们来决定如何将AI融入企业中,以及如何利用AI解决面临的问题。AI面临问题需要在政策、治理以及对个人和社会的影响方面加以解决。
在下一次工业革命中,AI的影响要大得多,因为它的无处不在将在我们的生活中变得更加微妙。杰夫·辛顿(Geoff Hinton)、李飞飞(Fei Fei Lee)和吴恩达(Andrew Ng)等AI领域的领军人物,都在呼吁重启AI,因为深度学习尚未被证明具有可扩展性。AI的前景并没有减弱,相反,人们对其真正到来的期望被进一步推高,也许还需要5到10年。
我们有时间在深度学习、其他AI方法以及有效从数据中提取价值的过程中研究这些问题。这种商业准备、监管、教育和研究过程的完成对于加快商业和消费者的步伐,确保一个适当约束技术的监管体系到位,以及让人类在更长时间内掌控科技的监管体系来说都是非常必要的。