金沙城线上娱乐平台

这个AI可以从无害的玩笑中讲出真正的仇恨言论

作者:晏畛桌    发布时间:2017-06-01 09:12:02    

Nicolas Datiche / AFLO /新闻协会图片作者Douglas Heaven毫不掩饰互联网存在仇恨言论问题但是,自动化压制它的尝试大多都失败了,因为它定义为计算机的概念太滑现在,一种识别仇恨言论的微妙语言指纹的新方法 - 并将其与类似词语的良性使用分开 - 最终可以帮助我们打击最严重的罪犯 “众所周知,仇恨言论很难被发现,”纽约伊萨卡康奈尔大学的Dana Warmsley说简单地使用冒犯性语言并不会使某人辱骂人们因各种原因发誓朋友们互相称呼名字以获得乐趣人类或自动仇恨语音检测都没有效果今年早些时候,谷歌试图根据人们之前认为具有攻击性的短语与评论的“有毒”评分进行评分然而,缺点压倒了积极的影响 “你对一个女孩很聪明”被认为与人们认为有毒的评论相似18%,而“我喜欢Fuhrer”则相似2%加拿大蒙特利尔麦吉尔大学的哈吉·穆罕默德·萨利姆(Haji Mohammad Saleem)和他的同事们通过学习人们如何使用潜在的侮辱性词语来教授机器学习软件以发现仇恨言论,而不是专注于孤立的单词和短语该团队的系统了解了包含2006年至2016年期间向Reddit发布的大部分帖子的数据该团队专注于经常面临虐待的三个群体:非洲裔美国人,超重人群和女性对于每个小组,该小组选择了Reddit上最活跃的支持和滥用群组的帖子他们还收到了Voat的评论 - 一个类似于Reddit的论坛网站与基于关键词的探测器相比,该系统错误地将无辜的帖子识别为潜在的仇恨言论并且它能够突出显示没有明显令人反感的关键词的评论,例如“动物一直攻击其他动物”,其中“动物”一词被用作种族主义诽谤(arXiv.org/abs/1709.10159)康奈尔大学的托马斯戴维森说:“比较仇恨和非仇恨社区,找到区分他们的语言是一个聪明的解决方案”但他不相信解决方案与萨利姆的团队建议的一样广泛适用它在Reddit评论中进行了测试,但该组织尚未证明它会在其他地方(如Twitter或Facebook上)发现有针对性的滥用行为该系统也明显错过了令人反感的言论,例如“黑人是可怕的”和其他显然是种族主义的事件英国巴斯大学的Joanna Bryson说,基于关键词的方法可以引起这些评论但它可能是另一个帮助版主监管他们的互联网补丁的工具 “最终,仇恨言论是一种需要人类判断来识别的主观现象,

 

Copyright © 网站地图