Google发布免费AI工具包,可快速审查性虐童图片

原标题:Google发布免费AI工具包,可快速审查性虐童图片

原标题:谷歌推出免费AI工具 可快速识别儿童性虐待图片

据Engadget消息,Google近日发布了一套AI工具包,用于快速审查大量的儿童性虐待内容,同时尽量减少人工检查的需要。该工具使用深度神经网络扫描虐童图片,并将这些图片按照可能被浏览的几率进行排序。此外,该套工具还能标记之前未发现过的性虐童内容。

  近日,谷歌发布一款AI(人工智能)工具,可帮助审核人员优先识别儿童性虐待(CSAM)内容,从而防止这些图像在网上传播。谷歌称,这款AI工具不仅可基于已有的数据库作资料对比,还能标记新发现的图片,这意味着正在遭受性虐待的儿童有可能更快被识别出来,并免受进一步虐待。

该工具包通过Google的内容安全编程包免费提供给企业合作伙伴和非政府组织。虽然不能确定是否能显著减少性虐童图片的数量,但可以协助发现和报告儿童性虐待。返回搜狐,查看更多

9月3日,在谷歌工程主管Nikola Todorovic和产品经理Abhi Chaudhuri发布的一篇博文中提到,在一项实验中,该工具可帮助审核人员在同一时间段内,找到比以往更多的儿童性虐待内容,识别效率提升了700%。

责任编辑:

事实上,谷歌从2006年就开始了这项研究。2008年,谷歌开始使用“哈希技术”(又称散列技术,是指对一串数据进行杂糅,输出另一段固定长度的数据,作为这段数据的“指纹”)来标记已知的儿童性虐待图像,以便识别重复图像。 每个违规图像都会被分配一个自己的ID,无需人眼查看,计算机即可识别。

2013年,谷歌尝试将儿童性虐待图像的加密“指纹”整合到跨行业数据库中,帮助企业、执法部门和慈善机构更好地在检测和删除儿童性虐待图像方面协作,从而遏制犯罪。

近日谷歌推出的内容安全API则是结合了最前沿的AI技术,可以在现有技术的基础上大规模提升识别效率。通过深度神经网络技术在图像识别上的应用,这款API可以优先呈现更有可能是儿童性虐待场景的图像。另外,与此前只能与已被标记为儿童性虐待的图像不同,这款API还可以识别出以前没有被标记的图像。

谷歌方面表示,这款API将免费提供给NGO(非营利组织)和行业合作伙伴使用。隐私护卫队在该API访问请求页面看到,申请者需提供姓名、电子邮件、组织名称、项目描述等信息。

本文由优信彩票购彩大厅发布于技术支持,转载请注明出处:Google发布免费AI工具包,可快速审查性虐童图片

您可能还会对下面的文章感兴趣: