手机版 | 网站导航
观察家网 > 消费 >

世界实时:谷歌雄心勃勃的计划:用人工智能应对网络喷�

互联网 | 2023-06-06 02:35:29

谷歌有一个雄心勃勃的计划,那就是利用人工智能删除侮辱性评论,防御网络暴民。虽然目前的技术无法应对这样的挑战,但它有助于改善那些已经标准化的互联网社区。


【资料图】

人类已经摧毁了互联网。网络欺凌、骚扰言论、社会羞辱和恶心言论在推特和红迪网等网站上像瘟疫一样传播,尤其是当你碰巧得到了错误的关注时。

提供在线服务的公司正被指控无视骚扰言论和压制言论自由。然而,谷歌现在认为,人工智能可以用来减少这种数字评论造成的悲剧。该公司的技术孵化器Jigsaw(原名谷歌智库Google Ideas)正计划通过自动化程序“对话AI”识别和删除数字骚扰信息。

正如Jigsaw负责人贾里德科恩(Jared Cohen)所说,“我想用我们拥有的最好的技术来应对那些战争哨所和不公平的战术(这些不公平的手段让那些敌对的声音占据了不成比例的比例),并尽最大努力提供一个公平的环境”。

谷歌此举显示了它的大胆,这个计划与Jigsaw之前的工作不同。Jigsaw此前的工作包括推出Project Shield(免费开放的DDoS拦截服务),旨在保护新闻网站和促进言论自由的网站免受拒绝服务攻击。Jigsaw的另一个成就,密码警报,是一个Chrome插件,旨在确保用户的密码免受网络钓鱼攻击。

这些曾经是主要的技术挑战,但战争帖子和网络暴民的话题已经成为一个社会学问题。

对话AI是谷歌“月球拍摄”项目中最成功的项目之一,也是“谷歌大脑”的一个分支。一方面,Conversation AI通过大规模的神经网络给机器学习领域带来了革命性的发展,同时也让谷歌拥有了更多的优势,比如在图像识别领域比人类更加熟练。但是对话人工智能对网上的辱骂言论无能为力。

虽然Jigsaw的目标是“对抗网络暴民的崛起”,但目前程序本身过于温和,所以距离Jigsaw成为合格项目还有很长的路要走。对话AI将主要用于简化社区评论流程(这个流程目前主要是人类完成的),所以即使不能根除那些不良的网络行为,也能为一些网站积累更多更好的评论。

暗示性言语的检测

几个月后,Jigsaw将率先将Conversation AI应用到《纽约时报》网站,帮助公司管理其在线评论。目前,《纽约时报》的所有者几乎必须审查他们网站上发布的每一条评论。

现在,Conversation AI正在阅读1800万条评论,并学习如何检测被拒绝的评论,包括没有实质性内容的评论、跑题的评论、垃圾邮件、煽动性和攻击性的评论、包含淫秽信息的评论等。

《纽约时报》的目标不是尽量减少其评论中的辱骂性言论,因为这个问题现在已经得到控制;相反,《纽约时报》希望减少人工版主的工作量。“我们预计不会有全自动系统。”《纽约时报》社区团队项目经理Erica Greene说。

《纽约时报》社区编辑Bassey Etim估计,大约有50% ~ 80%的评论可以自动评论,从而使手动版主能够将更多精力投入到其他部分。

与实时免费网站Twitter和Reddit不同,《纽约时报》网站面临其他问题。考虑到目前机器学习的局限性,会话人工智能无法有效对抗网络空间中存在的辱骂言论。

尽管机器学习取得了辉煌的成就,但它仍然没有破解人类语言。

。人类语言中的那些类似于围棋或者图像中的图案的部分,证明了语言的难以捉摸。

辱骂性言论检测中的语言难题是语言的语境。Conversation AI的评论分析并不适用于一个完整的讨论过程,因为它只可以将单个的评论和学习模式中的评论来进行匹配,从而识别哪些是好评论或者坏评论。

例如,如果评论倾向于包含常用词汇、短语和其他特征时,这些评论就会被认为是可接受的。但据Greene介绍,谷歌的系统经常会将关于唐纳德·特朗普(Donald Trump)的文章中的评论视为辱骂性的言论,因为他们会引用特朗普的一些言论,而这些言论如果出现在读者的评论中通常都会被屏蔽。对于这些类型的文章,《纽约时报》将会选择关闭自动审核机制。

因此,期望Conversation AI在开放的网站(例如Twitter)中有良好的表现,几乎是痴人说梦。

Conversation AI如何检测那些发送给犹太记者的辱骂性言论中关于大屠杀的暗示?对这些辱骂性言论的检测是建立在机器学习算法能够检测的历史知识和文化背景基础之上的,而这些只有在机器学习算法接受过类似的训练之后才能实现。

即便如此,如果有人发送“如果特朗普赢了,我就会买这个”并附上相同的图片,Conversation AI又如何能够将其与辱骂性言论进行区分?

事实上,这个过程所需要的语义和实践知识,甚至已经超出了目前机器学习所希望达到的目标。

因此,毫无疑问,专门的引战帖将会找到一种新的方法来发布辱骂性言论,而这种方式可以避开类似于Conversation AI这样的系统。如果目标是阻止评论者用侮辱性称呼例如“同志”等称呼对方的话,那么机器学习通过屏蔽一些评论可以很好地实现这一点。但是机器学习无法识别隐喻,例如说某人是“弯”的来隐喻某人不正常。

换句话说,对于那些已经非常规范的社区来说,Conversation AI将会使得审核任务完成得更有效率。

但如果想要根除那些我们听到的最糟糕的辱骂性言论(这些言论通常出现在那些审核标准最低的网站上),Conversation AI则显得无能为力。

除非改变Twitter和Reddit这些平台的性质,否则想要管理存在于这些网站的辱骂性言论几乎不可能。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢。

标签: 上一篇:用AI玩游戏?谷歌推出两个新的人工智能工具下一篇:最后一页

标签:

  • 标签:中国观察家网,商业门户网站,新闻,专题,财经,新媒体,焦点,排行,教育,热点,行业,消费,互联网,科技,国际,文化,时事,社会,国内,健康,产业资讯,房产,体育。

相关推荐