

新しい人工知能ベースのツールの開発者は、ほぼ99パーセントの精度で子供の虐待の画像を検出すると主張しています。
Saferは、非営利団体であるThornによって開発されたツールで、独自のフィルタリングシステムを持たない企業がこれらの画像を検出して削除できるようにします。
英国のInternetWatch Foundationによると、COVID-19検疫中の子供の虐待の報告は50%増加しました。 3月23日からの11週間で、彼らのホットラインは、昨年の29,698から、44,809の画像回復レポートを受け取りました。これらの画像の多くは、インターネットで多くの時間を過ごし、画像を公開しなければならなかった子供たちからのものです。
NSPCCのインターネット上の子供の安全の責任者であるAndyBurroughsは最近、 BBCに次のように語っています。
Saferは、子供の虐待コンテンツにすばやくフラグを付けて、被害を減らすのに役立つツールの1つです。
より安全な検出サービスには次のものがあります。
- Image Hash Matching:画像の暗号化および知覚的ハッシュを生成し、これらのハッシュを既知のCSAMハッシュと比較するフラッグシップサービス。公開時点で、データベースには590万のハッシュが含まれています。ハッシュは、ユーザーのプライバシーを保護するためにクライアントインフラストラクチャで行われます。
- CSAM (CSAM Image Classifier): , Thorn Safer, , CSAM. , , CSAM , CSAM.
- (Video Hash Matching): , , CSAM. 650 . CSAM.
- SaferList : Safer, Safer , Safer, . , - .
ただし、問題はコンテンツのタグ付けに限定されません。ソーシャルメディアプラットフォームのモデレーターは、インターネットに毎日投稿されている最も不快なコンテンツにさらされた後、治療を必要とすることが多く、自殺を防ぐのに役立つことさえあることが文書化されています。
Thornは、Saferはモデレーターの幸福を念頭に置いて設計されていると主張しています。この目的のために、コンテンツは自動的にぼやけます(同社によれば、現在は画像に対してのみ機能するとのことです)。
Saferには、開発者が利用できるAPIがあり、「ハッシュを追加し、他の業界のハッシュでスキャンし、誤検知フィードバックを送信することで、児童虐待コンテンツの一般的な知識を拡大するように設計されています」。
Flickrは、現在Thornで最も有名なクライアントの1つです。Flickrは、Saferを使用して、プラットフォーム上で子供の虐待の画像を見つけました。これは、法執行機関の調査の結果、18か月から14歳までの21人の子供が押収され、犯罪者が逮捕されました。
Saferは現在、米国で事業を行っているすべての企業が利用できます。ソーンは、各国の国内報告要件に適応した後、来年、他の国に事業を拡大する予定です。
このツールの詳細と開始方法については、こちらをご覧ください。