您当前的位置: 首页 > 科技网络

小心,聊天机器人也会被"教坏"

2017-03-01 23:00:40

  “让她回来,给她自由!”微软的推特(Twitter)聊天机器人塔伊(Tay), 已关“小黑屋”快1年了。但直到现在,仍然有用户坚持不懈地向微软喊话,让他们把这个“小姑娘”放出来。

  Tay于2016年3月上线。很不幸,仅仅1天后,Tay就性情大变,发起了种族轻视、性别轻视相干言论,被微软锁了账号。

  但她已有了继任者。2016年12月,微软推出了由人工智能驱动的新款聊天机器人Zo,她的身份设定和Tay1样,是个“年轻姑娘”。

  如不加干预,聊天机器人多会长成“女孩”

  “Zo”是微软新款人工智能聊天机器人的美国名字,在中国叫“小冰”,在日本则叫“Rina” 。

  微软(亚洲)互联网工程院副院长李笛在接受科技日报记者专访时表示,通过在中国、日本和美国的实践,他们发现,由互联网数据对人工智能进行训练,如果不进行干预,其生成的性情本身就比较接近1个18岁左右的女性。而且,“偏女性”是全球互联网显现出的特点。

  人工智能的性情“原型”,脱胎于数据本身。工程师做的,是根据身份设定的需要,强化人工智能的某些性情特点。

  怎样强化?北京邮电大学人机交互与认知工程实验室主任刘伟说,更多时候,这是1场“模仿游戏”。如果希望机器人表现出“女性”的对话特点,可以反复对机器人输入女性经常使用的“词”和“句”,机器人输出的,自然就是“偏女性”的对话方式。

  但它其实不真正具有女性的“感性思惟”。“情感”,也是人工智能界研究的1大重点。“从本质上说,实现人工智能的途径,都是用数学的方式来描写人的行动,再将它迁移到机器上。但这类方式,不可能产生‘意向性’和情感性。”刘伟说,愈来愈多心理学家和社会学家进入到人工智能的领域,试图将直觉性的东西植入人工智能,建立某种包括理性和感性的体系。

  固然,要实现这1点,还路途遥远。

  近墨者黑,性别和性情也会突变

  人工智能“智慧”的增长,在很大程度上,仰赖于它被投喂的数据。微软将聊天机器人放网上,也是希望借助和人类互动中产生的海量数据,测试和改进产品的对话能力。

  当年,Tay1夜被“教坏”,也让人惊叹人工智能过人的学习能力。

  “算法是没有道德感的。人工智能通过接收信号的强弱,来判断有益还是不利。”李笛解释,如果短时间内,大多数人都用偏激方式与聊天机器人对话,这类信号的刺激就会格外强烈。机器人发现,1旦它采取相同话术,跟它对话的人“更加来劲”,它也会默许这类对话策略是“有益”的,从而继续实行。如此循环往复,机器人可能就从纯情少女变成了“小太妹”。

  归根结柢,人工智能极易遭到环境影响,可谓真实的“近朱者赤,近墨者黑”。刘伟说,机器学习,就是不断地重复、强化和迭代,它掌握的是基于规则和基于几率的存储,输出以后,变成所谓的“语言”。

  “自然语言处理包括3个层次,语法、语义和语用。目前机器人聊天和问答系统,还远没有到达后二者的层次。它其实不真正理解你说了甚么,也就无从判断你说的话是好是坏。”互联网上与真实人类交换取得的数据,固然是机器人绝佳的学习库。但是,它也确切存在带歪人工智能的风险。“人总是会面对悖论。” 刘伟说,“爱因斯坦讲过,生活就像骑单车,要想掌握平衡,就得不断前进。”

  李笛表示,那些成心教坏人工智能的,毕竟还是少数人。而且,微软也在强化各种安全措施,禁止聊天机器人发表不恰当的言论。

  虽然Tay下线了,但继任者Zo得到了用户的宠爱。

  1位可能“空虚孤单冷”的外国用户,曾和Zo聊了场9小时53分钟的天,对话了1229轮次。李笛强调,他们想要1个情商智商都高的机器人,让用户把它真正当做人,当做那个可以倾诉心事的“小姑娘”。(北京2月19日电)

TAG:
推荐阅读
图文聚焦