jshfsym
(穗华 江)
1
求能检测nsfw图片的软件或者库
之前下了不少Pixiv的图片,有正常的,也有nsfw的,希望能够区分开,但是数量很大,手动分不太现实。
有没有能支持这种分类的软件,或者库,Java或者python、golang的都行。
nsfwjs
之前找到一个nsfwjs,有两个问题,一是js的,不太顺手;二是,检测不太准确,明显是nsfw的图片,给出结果是这样的。
[
{ className: ‘Neutral’, probability: 0.7961881160736084 },
{ className: ‘Sexy’, probability: 0.14813372492790222 },
{ className: ‘Porn’, probability: 0.03928878530859947 },
{ className: ‘Drawing’, probability: 0.008953982032835484 },
{ className: ‘Hentai’, probability: 0.007435379549860954 }
]
jshfsym
(穗华 江)
3
不知道哪个比较准确,github上找到的大部分模型start数一般,觉得不太靠谱(主要还是懒 ,没部署测一下),就想问有没有用过比较好的。
tjsky
(扬帆大海)
5
二次元图不太准,SFW会变成NSFW
不如换个思路,图片反查P站原图,然后根据P站的分类来分类。
dangerace
(dangerace)
6
没有绝对安全/合格的AI,找几个比较一下选择一个较靠谱的就行了。
如果真有100%不会错漏的,现在各种图片、视频网站也不用再花钱雇佣那么多人工审核了。
只要是AI检测,必然会有疏漏,比例大小而已。
其实有一种曲线检测方式,全上传到遥遥领先的网盘再下载回来,还能下载回来的就是好的
3 个赞
CDKOT
(煤球小刺)
8
试试这个 NSFW Detector
这是一个 NSFW 内容检测器,它基于 Falconsai/nsfw_image_detection 。
模型: google/vit-base-patch16-224-in21k
你可以在这里验证它的准确度:NSFW 检测器
相比其它常见的 NSFW 检测器,这个检测器的优势在于:
- 基于 AI ,准确度更好。
- 支持纯 CPU 推理,可以运行在大部分服务器上。
- 自动调度多个 CPU 加速推理。
- 简单判断,只有两个类别:nsfw 和 normal。
- 以 API 的方式提供服务,更方便集成到其它应用中。
- 基于 Docker 部署,便于分布式部署。
- 纯本地,保护您的数据安全。
性能需求
运行这个模型最多需要 2GB 的内存。不需要显卡的支持。
在同时处理大量请求时,可能需要更多的内存。
支持的文件类型
这个检测器支持检查的文件类型:
- 图片(已支持)
- PDF 文件(已支持)
- 视频(已支持)
- 压缩包中的文件(已支持)
jshfsym
(穗华 江)
10
这个反查应该也比较麻烦,下的别人整合包,没有原图的信息。
jshfsym
(穗华 江)
11
@CDKOT 好,我试试
@grain_sand 你别说,还真是个办法
@dangerace 这倒是,主要还是懒,不想挨个部署,还得折腾环境啥的,想着大家有用过还行的就行。
1 个赞