AWS-Rekognition图像识别监管

搬运此文, 通过深度学习还检测图像中明显或者暗示性成人内容的 AWS 出品工具。

图像审核

问:什么是图像审核?

Amazon Rekognition 的图像审核是一种基于深度学习并且易于使用的 API,用于检测图像中的明显或暗示性成人内容。开发人员可以根据自己的业务需求,使用这种额外的元数据来筛选不当内容。除了根据存在的成人内容对图像进行标记之外,图像审核功能还会返回一个带有置信度的分级标签列表。这些标签会指明成人内容的具体类型,从而让开发人员能够进行更细化的控制,以便筛选和管理大量用户生成的内容 (UGC)。这一 API 可以用于社交和交友网站、相片分享平台、博客和论坛、儿童应用程序、电子商务网站、娱乐和在线广告服务等应用场景。

问:Amazon Rekognition 可以检测哪些类型的明显或暗示性成人内容?

Amazon Rekognition 可以检测图像中以下类型的明显或暗示性成人内容:

  • 明显的裸露
    • 裸露
    • 男性裸体图形
    • 女性裸体图形
    • 性活动
    • 部分裸露
  • 暗示性
    • 女性泳装或内衣
    • 男性泳装或内衣
    • 暴露的衣服
      Amazon Rekognition 的图像审核 API 可以返回一个分级标签列表,并附带检测到的每个标签的置信度。例如,对于一张不当图像,Rekognition 可能会返回最高级别的标签“明显的裸露”及其置信度。开发人员可以利用这一功能来标记内容。同时,Rekognition 还会提供“男性裸体图形”等更多信息及其置信度,从而返回细化到第二级别的信息。开发人员可以利用这一信息来构建更为复杂的筛选逻辑。

请注意,图像审核 API 并不能筛选出所有明显或暗示性成人内容。此外,图像审核 API 无法检测出某个图像是否包含违法内容(例如儿童色情内容) 或不正常成人内容。

问:除了明显和暗示性成人内容以外,Amazon Rekognition 的图像审核 API 能否检测其他不当内容?

Rekognition 目前只支持上文所述的标签。我们会根据客户反馈继续添加并完善各种标签。

如果您需要检测图片中其他类型的不当内容,请通过下文介绍的反馈流程联系我们。
问:怎样确保 Rekognition 符合我的成人图像审核案例的要求?

Rekognition 的图像审核模型已经经过调整和大规模测试,但我们不建议您用自己的数据集来测量准确性和衡量性能。

您可以在 API 请求中使用“MinConfidence”参数,以便在内容检测 (灵敏度) 和检测准确性 (精度) 之间实现平衡。如果降低“MinConfidence”,您可能会检测出大多数不当内容,但也有可能检测出事实上不属于明显或暗示性成人内容的内容。如果提高“MinConfidence”,您可能能够确保检测出的所有内容事实上都是明显或暗示性成人内容,但可能会没有标记出某些不当内容。有关如何使用“MinConfidence”的示例,请参阅此处的文档。

https://aws.amazon.com/cn/rekognition/faqs/