人工智能向前发展的三个目标
作者:Jason Davis
2019-11-30
摘要:掌握人工智能不仅仅是技术层面的能力——这是一个在组织层面的挑战。

如果大数据是推动数字经济发展的石油,那么人工智能(AI)就是汽车。它可以将公司从旧的,主要是基于物理资产的模型转移到新的,基于信息世界的模型,在那里,竞争优势将转移到那些能在最短的时间内从数据中获取最大价值的人。

无论是试图逃避变革断层的强大的企业还是旨在实现增长的中小企业都必须学会驾驭人工智能,否则他们最后都将屈服于垄断的大型技术巨头。

掌握人工智能不仅仅意味着融入技术,还意味着确保要为企业和社会创造价值。其涉及了三个首要挑战:揭开人工智能的神秘面纱,以便员工和管理人员能够接近它;确定何时以及如何开始实施AI;并界定其准则和道德界限。

最近,我成为了Digital @ INSEAD的AI论坛的主持人。数十位发言人(从INSEAD同事到全球企业家)将聚集在新加坡,分享有关人工智能的想法,见解和第一手经验。

 

揭开AI的神秘面纱

人们倾向于抵制他们觉得令人生畏的技术。这可能是人工智能的一个障碍,因为管理人员,特别是老年人,并不是很清楚。但根据INSEAD管理科学教授Phil Parker的说法,我们不需要将人工智能视为一种新的和不熟悉的东西。在论坛开始之后,他挥舞着一个袖珍计算器作为“人工智能”的一个例子,袖珍计算器在出现的当时引起了人们的注意,但早已被降级,被我们认为是理所当然的硬件组件。Phil Parker说:“20年后,我们可能会认为自动驾驶汽车只是’汽车’,就像现在我们有口袋计算器为我们计算平方根,但是也不会给我们留下任何深刻的印象那样。”

过于被人工智能吸引的经理人可能会试图直接与他们合作,但Phil Parker警告说这是错误的做法。 “你要做的最后一件事就是建立一个数据中心。做一个全面的审计;知道你想要什么以及人工智能的财务价值在哪里。”

也许最令人兴奋的是,Parker鼓励业内人士尝试通过编码来试试水。使用免费的在线工具 - 包括YouTube的一些解说视频 - 以及GitHub上提供的开源代码,新手可以学习许多基础知识并开始构建基本的机器学习和AI解决方案。在另外一个关于如何加快对这些领域的理解的讨论中,Parker告诉与会者他们的目标应该是“学习足够的[编码]语言,这样你就可以放心地做任何事情”。然而,对于像Python这样的编程语言,流行语和行话的重要性可能是很大的。 Parker目前正在通过设计和提供微课程(作为INSEAD全球行政管理人员MBA的一部分)来解决这个问题,“以最少的代码将人们提升到一个新水平”。Parker说,经过长达数小时的编码速成课程后,“人们会说,我的天啊!’他们以前没有意识到些都是触手可及的。在那之后立即有两家初创企业启动。”


确定应用程序

一旦他们度过了厌恶算法的那一关,领导者和经理必须决定在他们的业务中应用AI驱动的解决方案的具体位置。

Roland Berger的战略与组织设计教授Phanish Puranam在他的演讲中认为,算法可以用来帮助公司找到更好的工作方式。例如,公司可以建立他们自己的社交网络的数字化复制品或计算机模型来查看社交网络参与者的态度。在进行昂贵的变革计划之前,他们可以先进行虚拟试验,以衡量其成功的机会。

Puranam是INSEAD“商业人工智能”公开招生计划的主任,他将注意力从组织范围缩小到管理层,并指出人类智能和人工智能都归结为模式识别。在庞大的数据集中发现和利用模式的能力也是AI系统AlphaGo在2016年击败世界冠军李世石的原因。但这并不意味着AI在任何事上都可以做得更好。有许多任务只有人类才能在做得很好,而其他有些任务则是人类和算法的组合可以发挥更好。Puranam认为, “一个聪明的人和一个智能机器可以做出预测而且都是错误的,但只要它们以不同的方式出错,平均结果就会接近实际结果。”

然后,他提交了一份清单,用于确定使用算法最有价值的领域。这可能意味着需要在那些边际增加产生不成比例大的利益中挑选问题。在后一点上,Puranam提到,虽然看起来很明显,但“这是第最大的一个限制因素。公司在理论上有很多数据,但它不在一个地方;没有人知道它的质量。整合它是一场噩梦。”


负责地界定边界

与任何新技术一样,AI只是一种旨在满足人类需求的工具(尽管是一种非常强大的工具)。但是,当大规模自动化威胁到人类生计,数据收集与个人隐私相冲突,或者预先存在的偏见和不平等(例如招聘中的性别差异)被纳入算法时,就会出现道德问题。在埃森哲的董事苏尼塔·坎南(Sunita Kannan)的演讲中,她讨论了所谓的“负责任的人工智能的三大支柱”:以人为中心,遵守法规和道德设计。

违反道德规范也会影响消费者的心理健康,并最终损害公司的利润。诺华公司负责管理和环境的教授Klaus Wertenbroch分享了他对人工智能和大数据如何威胁客户自主意识的研究。他认为人工智能的商业用途存在一些天生的矛盾:人们喜欢算法勺子喂食,直到它似乎违反了描绘个人自由意志的几乎难以察觉的线条。如果他们觉得机器人正在危及他们的个人代理,消费者可能会反击,甚至违背他们自己的最佳利益。

Wertenbroch的一项研究发现,当客户相信他们未来的选择可以根据过去的模式进行预测时,他们会偏离他们偏好的选择,从而选择不同的方式。换句话说,消费者违反自己的偏好,并重新建立自己的自主意识。但是,当可预测性相关的词语被一致性所取代时,客户不再会倾向于去改变他们的偏好。虽然可预测性和一致性在Wertenbroch的研究背景下有时候意味着同样的事情,但只有后者重申了消费者的自主性和个性 - 因此后者往往是可以接受的。

对于公司来说,使用他们掌握的所有数据来使他们的产品对消费者更具吸引力可能是诱人的(并且有利可图)。例如,在2017年PNAS研究中,他们设计了一个旨在将喜欢与个性简介相关联的数据库,大约300万Facebook个人用户被归类为内向或外向,基于他们留在品牌页面上的一个“喜欢”。仅使用这种粗略分类,研究人员就提供了有针对性的广告,将转化率(即销售额)提高了约50%(0.01%对比0.015%)。

但Facebook最近的艰辛应该是一个值得警惕的故事。心理咨询公司剑桥分析公司秘密利用社交网络的账户持有人数据制作有针对性的广告,这些广告可能有助于推动2016年美国总统大选,转而支持唐纳德特朗普。丑闻爆发当天,Facebook的市值已接近蒸发400亿美元。

“我的建议是谨慎行事并留下一些盈余”,Wertenbroch说。 “从长远来看,公司可以将他们自己定位为有道德准则的,不仅仅通过语言上的,而且通过他们具体所做的事情。最终,来最大化他们的盈利”。

热门文章