秒速赛车技巧:谷歌博客回复“造人”:技术

  秒速赛车平台令人印象深刻的是,接到电话的人并没有发现他正在与人工智能交谈。这对谷歌来说是一项巨大的技术成就,但它也好似潘多拉魔盒一般,带来了一系列有关道德伦理的激烈讨论。

  大家开始思考,谷歌是否有义务告诉人们他们正在与一台机器通话?模仿人类的技术会削弱我们对所见所闻的信任吗?这是技术特权的另一个例子吗?知情者可以随时终止他们与机器的无聊对话吗?而那些接听电话的人(很大比例是低薪服务工作者)未来将不得不应对一群“笨蛋机器人”,这样真的公平吗?

  发布会上,谷歌没有对这个功能做过多解释。但是,在其博客文章中,谷歌增加一些重要的细节。

  首先,Duplex不是未来派的人工智能,并不能进行开放式的对话。正如谷歌研究人员解释的那样,它只能在“封闭的领域”进行交流。这些交流是功能性的,对于要说的内容有严格的限制。“你想要一张桌子?多少?在那一天?什么时间?好的,谢谢,再见。”就是这么简单。

  乔治亚理工学院副教授马克在采访中提到,他认为Google的助手可能“工作得很好”,但只能在公式化的情况下。“处理非语境语言对话是一个非常难的问题。但是,当人工智能不理解对话内容时,也有很多技巧可以掩饰。”

  谷歌的演示精彩地展示了这些技巧的工作原理。但是,对于与人类交谈的计算机程序而言,这些并不新鲜。

  谷歌的博客文章列出了Duplex将使用的一些口头禅:包括“下星期五18日”,“你能听到我吗?”和“对不起,你能重新开始吗?”。这些对话看似距离真正的“类人智能”还有不小的差距。

  其次,值得注意的是,谷歌称Duplex为“实验”。它不是一个完成的产品,也不该以这种形式广泛使用。我们可以参考谷歌去年为PixelBuds打造的实时翻译功能。它在舞台上表现得完美无瑕,但在现实生活中却屡遭诟病。

  最后,谷歌在其博客文章中表示,Duplex具有“自我监控能力”,可以识别谈话何时超越其功能。“在这些情况下,它可以向人类操作员发出信号。”

  这与Facebook的个人助理M类似。此前,扎克伯格承诺,公司将利用人工智能和人类“教练”相结合的方式,在Messenger应用中回答Facebook用户的问题。用户可以请求M帮助推荐礼物,或者预定餐位等。

  所有这些都让我们更清楚地了解Duplex可以做什么,但它并没有回答Duplex将会产生什么影响。作为首个演示此技术的公司,谷歌有责任正视这些问题。

  此外,谷歌是否会通知人们,他们正在与机器人谈话?谷歌的工程副总裁说,这“可能”会发生。

  许多该领域的专家都认为,谷歌有义务对此信息进行披露。当然,谷歌会认为告诉用户他们正在与机器人交谈很“难以启齿”。毕竟,如果谷歌助理一上来就说,“你好,我是机器人”,用户很可能会立刻挂断。

  谷歌表示,它希望国家可以出台一组规范,使“呼叫者是机器人”通过系统设置被明确地指出,而非通过其尴尬的自我介绍。“我们应该让机器人听起来与人类不同。这就相当于,我们将臭味添加剂放入无味的天然气中时,必然有所分别。”

  人工智能伦理学专家乔安娜·布赖森称,如果机器人可以自由地”化身”人类,其影响的恶性程度是不可估量的。从诈骗电话到自动骗局,人类在诸多应用场景将无一幸免。

  想象一个场景:有人在电话中惊恐地告诉你附近有枪击事件,你听后很恐慌,回问他一些问题,他的回答足以说服你枪击事件的真实性。而就在这时,他挂断了电话,冷笑着说自己拨错了号码,这只是一场恶作剧。你大概会吓到鸡皮疙瘩掉一地吧?

  除此之外,如果这种技术变得普遍,它会产生很多微妙的影响,而这些影响无法受制于法律的监管。《大西洋月刊》表明,闲聊,无论是电话或街头对话,都具有无形的社会价值。他引用了城市主义者简·雅各布斯的话,“地方层面的临时性公共接触”创建了“公众尊重和信任网络”。

  另一方面来看,如果我们给人们另一种避免真实社交互动的选择,我们会失去什么?人工智能手机或许会使我们每个人变得粗鲁。因为我们无法分辨手机另一头的人与机器之间的差异,我们便会对所有的来电产生质疑。由此,我们可能会在通话过程中打断真实的朋友,告诉他们:“闭嘴,让我跟人说话。”

  因此,布赖森说,“谷歌管理好自己是不够的。除非各国加以规。

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:http://www.yingkedasmt.com/ziyuan/68.html