画像向け NSFW コンテンツ認識
SSensifai

画像向け NSFW コンテンツ認識

Sensifai は画像内の NSFW コンテンツを自動認識します。入力画像のヌードレベルを「安全」「危険」「可能性あり」に分類します。

プラットフォームAWS Marketplace
タイプすぐ使えるモデル

このモデルについて

Sensifai は画像内の NSFW コンテンツを自動認識します。入力画像のヌードレベルを「安全」「危険」「可能性あり」に分類します。

Sensifai は最先端のニューラルネットワークを活用し、本番環境で信頼できる認識性能を提供します。

AWS SageMaker での展開や REST API 連携により、素早く本番導入できます。

主な機能

NSFW コンテンツとポリシー違反の検出
設定可能なモデレーション閾値
安全なレビュー運用のためのリスクスコアリング
リアルタイム処理対応
高精度なディープラーニングモデル
REST API による簡単な統合
スケーラブルなクラウド基盤

ユースケース

このモデルは、次のような複数の本番シナリオで活用できます。

  • コミュニティ安全性のスクリーニング
  • Trust & Safety コンプライアンスの自動化
  • メディア・エンターテインメント向けコンテンツ分析
  • ECカタログのデータ拡張
  • セキュリティ・監視モニタリング
  • SNSコンテンツのモデレーション
  • デジタル資産管理

概要

提供元Sensifai
デプロイAWS SageMaker
無料トライアルいいえ
APIアクセスREST API

タグ

AWS MarketplaceSageMakerContent ModerationSafety

サポートが必要ですか?

この製品についてご質問がありますか?私たちのチームがお手伝いします。

お問い合わせ