硅谷为“诗人们”提供了下一个热门工作

第一财经2016-04-13 18:05:00

责编:刘佳

不久之前,Robyn Ewing还是好莱坞的编剧,负责电影剧本的撰写工作。而现在,Robyn将自己的写作才华用于不同的虚拟助手的性格构建,而虚拟助手将应用于医疗人工智能,以跟用户患者进行交互。

目前,与Robyn Ewing共事的是一群工程师,他们正合力开发一款被命名为“Sophie”的软件应用程序。据了解,Sophie是一个虚拟护士,可以温柔地提醒患者注意按时吃药,并且会询问他们的疼痛感受,收集整合之后再传给真正的医生进行诊断。

当科技巨头和一批初创公司都将视线转向能与人类交谈的虚拟助手的研发之时,为这样的人工智能进行创作正在成为硅谷逐渐升温的一门工作。在苹果公司的Siri、亚马逊的Alexa和微软Cortana背后的不仅仅是工程师,还有诗人、喜剧作家、小说家以及其他类型的文字工作者参与塑造增长迅速的人工智能工具的“人格”。

和Ewing曾经在好莱坞虚构的电影人物不同,大多数的虚拟助手不需要经历跌宕起伏的情节与各式各样的探险的考验,而是被设定完成诸如浏览邮件、推送提醒、关灯等大量平淡乏味的任务。

而最新一批进行虚拟助手研发的初创公司则致力于更加有创意的领域,他们正在构思一种可以和人类进行连贯流畅谈话的机器人,这样充满野心的产品或许会迅速占领整个市场。

虚拟助手的交流能力是这次人工智能潮界定分良莠的关键方面,因而人工智能作家必须着力将对话设计得更加自然。亚马逊Alexa的设计者已经将日常化的“hmms(嗯)”和 “ums(呃)”加入到了Alexa的“语料库”中。而Siri则是以冷幽默出名,并且能够根据用户要求“即兴”来一段Beatbox。

与设计小说人物相同,虚拟助手的作家必须为这些机器人构思一段生活背景。负责医疗或者效率相关的应用程序的作家可能会面临“到底应该将虚拟助手设定为工作狂、热心工作的人、还是虚怀若谷的‘居士’”等一系列的问题。“即便你根本没有使用过这个应用,你必须构思出一整套背景故事。”Ewing说。

即便被设计完成一些单调的任务,背后也需要人工智能作家付出极具创意的努力,为了使虚拟助手的形象更加丰满,他们试图将一些较为怪异的个性嵌入最为呆板的活动中。在一家名为x.ai的虚拟助手初创公司,作为人工智能交互设计师的哈佛大学戏剧专业毕业生Anna Kelsey为她的人工智能程序设定特性:是应该让虚拟助手使用emoji表情,还是让它对用户直呼其名呢?Anna认为,不应该让用户觉得虚拟助手太过随意,也不能特别严肃,应该拿捏好其中尺度,使人感觉恰如其分。

据CBInsights和《华盛顿邮报》调查,研发虚拟助手的初创公司2015年至少获得了3500万美元的投资,并且这个数字并没有将谷歌、亚马逊、苹果、脸书、微软这样的科技巨头在这方面数以百万计的投资算入其中。很明显,对能够与人类进行交谈的虚拟助手进行投资的意愿近来出现了激增,原因之一便是像微信、WhatsApp和Facebook Messenger这样的拥有最高的下载次数的社交应用软件的推动。投资人看到了越来越多的用户涌入社交平台,因而希望在其中置入额外的新功能。

虚拟助手另外一个推动力在于人工智能的分支机器学习和自然语言处理程序的推广,这些技术的推进使机器拥有理解人类语言的能力。“机器识别文字的准确度近来到达了一个引爆点,从2009年的80%到2014年的95%。”斯坦福大学计算机科学教授与自然语言专家Christopher Manning说。

随着这种技术的不断发展,显而易见,在人类智慧与人工智能不断结合的浪潮之中将会衍生很多全新的工作。据Forrester Data的统计数据预测,到2025年,1270万美国新型工作将涉及设计机器人或自动化软件。到2019年,超过三分之一的劳动力将依靠这种技术工作。

而目前,一些虚拟助手已经成为了日常办公的得力助手。它们可以代表上司询问员工一些问题,并把这些问题的答案进行汇总整理到一个文件中;还有些安排机器人能够和人类的行政助理进行邮件往来。上文提到的医疗虚拟助理Sophie和Molly不仅能够询问病人的用药状况,还能够在情绪方面鼓舞病患。此外,还有一些初创公司在构思一种可以指导用户正确用药以及减肥的虚拟助手的形象。

其实在大多数情况下,用户似乎并不需要虚拟助手的帮助,因为他们可以直接在互联网上查询到任何想要知道的信息,但这毕竟会消耗更多的时间。在Ewing看来,如果虚拟助手不能取悦用户,似乎没有存在的意义。

在最近微软Cortana的一个六人会议中,与会的是一名诗人、一名小说家、一名剧作家和一个前任电视节目编剧,他们聚集在一起就如何回答政治问题进行了讨论。

随着大选的推进,Cortana面临着铺天盖地的诸如“你是克林顿的支持者还是特朗普的粉丝呢”这样的问题,为此,这个团队深入查询了大量的背景资料以期能使Cortana的回答显得更加真实。同时,他们构思的回答也要能够反映出Cortana“互联网公民”的身份。此外,Cortana作为虚拟世界的成员之一对于候选人的所有信息了如指掌。所以综合上述种种,写作团队为Cortana设定的回答是“所有的政治家都是英雄与恶棍的综合体”,以此避免直接给出具体的答案。

每天早晨,在微软雷蒙德研究院的办公室中,这个团队都会进行头脑风暴,同时也会应对需要Cortana回答的新问题的答案。其中有些人负责架构Cortana作为加拿大人或者欧洲人的形象特征。此外,Cortana也可用西班牙语,葡萄牙语,法语,日语,意大利语,德语,汉语,英语和印度英语。

当团队准备推出一些新功能,比如说Cortana邮件提醒行程安排时,如果直接说“你将跟某某某见面”,这样的邮件内容未免显得较为呆板,如果用“星球大战”的笑话引入语境似乎又不是很恰如其分。他们也要讨论如何避免回答过于粗俗,因为会有一些用户会故意让Cortana重复色情话语。

而微软公司的一个团队显然没有进行过这样周密的讨论:其在Twitter上发布的聊天机器人Tay仅使用了一周便被停止运行,因为这个机器人重复了网络上的纳粹言论,因而被人们认为它是一个纳粹分子。

“我们将尽一切可能控制技术漏洞,但无法预测到所有与人类互动中可能产生的错误,并对此加以规避,只能从这种已经发生的失误之中吸取教训。”在Tay被停用之后,微软在博客中这样表示。

这些事件反映了编写AI程序中根本性的挑战:虚拟助手与人类的关系到底应是怎样的。作家和设计师说,他们最棘手的问题是虚拟助手应该如何应对人类的问题?是应该纯粹地完成用户的指令,还是与用户进行感情上的沟通?

“人类对个性化软件比对自动化软件有更高的期望。”位于旧金山的botanic.io的创始人兼总裁Mark Stephen Meadows说道:“当软件会交谈并且有了人格,就打开了人类行为的潘多拉宝盒,人们就不会特地跑去调戏其他类型的软件。”

此外,对人机交互的研究会让人联想到一种叫做“恐怖谷”理论。该理论是一个关于人类对机器人和非人类物体的感觉的假设,在1969年被提出。改理论说明了当机器人与人类相像超过一定程度的时候,人类对他们的反应便会突然变得极之反感,即哪怕机器人与人类有一点点的差别都会显得非常刺目,从而整个机器人有非常僵硬恐怖的感觉。

出于此,许多人工智能的开发人员将一些奇怪的元素添加到虚拟助手形象的设计之中——比如不对称的表情或一个奇怪的玩笑——这表明虚拟助手不是人类,也不渴望成为人类。这些“人为”的失误是讨喜的,因为机器人如果没有这样的缺陷可就能显得冷漠和疏离。

如果你问Cortana她是不是人类,她会说不是,然后说一个明显带有讨好意味的笑话:“我对人类怀有最深的敬意,因为你们发明了微积分和奶昔。”

“不想成为人类以及有幽默感,这两种属性可以让用户对虚拟助手的错误和重复更加宽容,”Sense.ly的用户体验主管Cathy Pearl说。虚拟助手确实会犯很多错误,对于这点每个使用者都有体会。这项技术还不成熟,处理不同情形的能力会受其所掌握的信息的限制。如何巧妙地让机器人传达它对某件事并不了解是人工智能最具挑战性的问题之一。

另一个较为棘手的问题是性别。虽然Cortana不是人类,但是制作团队给了她女声,这是因为早期用户表示偏爱女性虚拟助手。现在Siri和谷歌虚拟助手默认呈现女性的声音,但也可以更改为男性。亚马逊的Alexa只能呈现女性声音,而IBM 的Watson就采用了男性的声音。

Cortana的开发人员还避免其表现出人们对女性的刻板印象,比如限制她道歉的次数和避免过多说一些自贬的言论。尽管声音是女声,团队坚称Cortana并不是一个女人。“她知道性别取决于生物的构造,而她不是生物,所以没有性别。”Harrison说,“她为自己的人工智能属性而感到骄傲。”

举报
第一财经广告合作,请点击这里
此内容为第一财经原创,著作权归第一财经所有。未经第一财经书面授权,不得以任何方式加以使用,包括转载、摘编、复制或建立镜像。第一财经保留追究侵权者法律责任的权利。
如需获得授权请联系第一财经版权部:
banquan@yicai.com
分享
热度
意见反馈箱:yonghu@yicai.com
客服热线:400-6060101 Copyright 第一财经 ALL Rights Reserved