論文の概要: Evaluating Concept Filtering Defenses against Child Sexual Abuse Material Generation by Text-to-Image Models
- arxiv url: http://arxiv.org/abs/2512.05707v1
- Date: Fri, 05 Dec 2025 13:34:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:57.037035
- Title: Evaluating Concept Filtering Defenses against Child Sexual Abuse Material Generation by Text-to-Image Models
- Title(参考訳): テキスト・画像モデルによる児童性虐待物質生成に対する概念フィルタリング対策の評価
- Authors: Ana-Maria Cretu, Klim Kireev, Amro Abdalla, Wisdom Obinna, Raphael Meier, Sarah Adel Bargal, Elissa M. Redmiles, Carmela Troncoso,
- Abstract要約: 児童性虐待物質(CSAM)を創出するテキスト・ツー・イメージ(T2I)モデルの誤用を防止するための児童フィルタリングの有効性を評価する。
まず、ゲームベースのセキュリティ定義を用いて、CSAM生成の防止の複雑さを捉える。
第二に、現在の検出手法では、データセットからすべての子供を取り除くことはできないことを示す。
- 参考スコア(独自算出の注目度): 22.804759834225468
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We evaluate the effectiveness of child filtering to prevent the misuse of text-to-image (T2I) models to create child sexual abuse material (CSAM). First, we capture the complexity of preventing CSAM generation using a game-based security definition. Second, we show that current detection methods cannot remove all children from a dataset. Third, using an ethical proxy for CSAM (a child wearing glasses, hereafter, CWG), we show that even when only a small percentage of child images are left in the training dataset, there exist prompting strategies that generate CWG from a child-filtered T2I model using only a few more queries than when the model is trained on the unfiltered data. Fine-tuning the filtered model on child images further reduces the additional query overhead. We also show that reintroducing a concept is possible via fine-tuning even if filtering is perfect. Our results demonstrate that current filtering methods offer limited protection to closed-weight models and no protection to open-weight models, while reducing the generality of the model by hindering the generation of child-related concepts or changing their representation. We conclude by outlining challenges in conducting evaluations that establish robust evidence on the impact of AI safety mitigations for CSAM.
- Abstract(参考訳): 児童性虐待材料 (CSAM) の作成を目的としたテキスト・ツー・イメージ(T2I)モデルの誤用を防止するため, 児童フィルタリングの有効性を評価した。
まず、ゲームベースのセキュリティ定義を用いて、CSAM生成の防止の複雑さを捉える。
第二に、現在の検出手法では、データセットからすべての子供を取り除くことはできないことを示す。
第3に、CSAMの倫理的プロキシ(以下、眼鏡をかけている子供、以下CWG)を用いて、トレーニングデータセットにわずかな児童画像しか残っていない場合でも、児童フィルタT2IモデルからCWGを生成する戦略が、モデルが未フィルタリングデータでトレーニングされた時よりもほんの数クエリだけ多く存在することを示す。
子画像のフィルタリングモデルを微調整することで、追加のクエリオーバヘッドが削減される。
また,フィルタが完璧であっても,微調整によって概念の再導入が可能であることを示す。
この結果から,従来のフィルタリング手法では閉重モデルの保護は限定的であり,開放重モデルの保護は行わないが,児童関連概念の生成や表現の変化を阻害することにより,モデルの汎用性を低下させることが示されている。
我々は,CSAMにおけるAI安全対策の効果に関する確固たる証拠を確証する評価を行う上での課題を概説して結論付けた。
関連論文リスト
- Verifying LLM Inference to Prevent Model Weight Exfiltration [1.4698862238090828]
推論サーバを制御するアタッカーは、通常のモデル出力内に隠してモデルの重みを除去することができる。
本研究では,このような攻撃に対してモデル応答を正当に検証し,推論中に異常やバギーな動作を検出する方法について検討する。
我々は,セキュリティゲームとしてモデル抽出を形式化し,ステガノグラフ抽出を確実に軽減できる検証フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-04T14:51:44Z) - ICAS: Detecting Training Data from Autoregressive Image Generative Models [38.1625974271413]
トレーニングデータ検出は、モデルトレーニングにおける不正なデータ使用を識別するための重要なタスクとして登場した。
我々はこの領域に会員推定を適用した最初の研究を行う。
我々の手法は、様々なデータ変換の下で強い堅牢性と一般化を示す。
論文 参考訳(メタデータ) (2025-07-07T14:50:42Z) - Can We Generate Images with CoT? Let's Verify and Reinforce Image Generation Step by Step [86.69947123512836]
CoT(Chain-of-Thought)推論は、複雑な理解タスクに取り組むために大規模なモデルで広く研究されている。
自己回帰画像生成を促進するために,CoT推論の可能性について,初めて包括的調査を行った。
本稿では,自動回帰画像生成に特化したPARMとPARM++を提案する。
論文 参考訳(メタデータ) (2025-01-23T18:59:43Z) - Reliable and Efficient Concept Erasure of Text-to-Image Diffusion Models [76.39651111467832]
本稿では,Reliable and Efficient Concept Erasure (RECE)を提案する。
派生した埋め込みによって表現される不適切なコンテンツを緩和するために、RECEはそれらをクロスアテンション層における無害な概念と整合させる。
新たな表現埋め込みの導出と消去を反復的に行い、不適切な概念の徹底的な消去を実現する。
論文 参考訳(メタデータ) (2024-07-17T08:04:28Z) - Breaking Free: How to Hack Safety Guardrails in Black-Box Diffusion Models! [52.0855711767075]
EvoSeedは、フォトリアリスティックな自然対向サンプルを生成するための進化戦略に基づくアルゴリズムフレームワークである。
我々は,CMA-ESを用いて初期種ベクトルの探索を最適化し,条件付き拡散モデルで処理すると,自然逆数サンプルをモデルで誤分類する。
実験の結果, 生成した対向画像は画像品質が高く, 安全分類器を通過させることで有害なコンテンツを生成する懸念が高まっていることがわかった。
論文 参考訳(メタデータ) (2024-02-07T09:39:29Z) - Ring-A-Bell! How Reliable are Concept Removal Methods for Diffusion Models? [52.238883592674696]
Ring-A-Bellは、T2I拡散モデルのためのモデルに依存しないレッドチームツールである。
これは、不適切なコンテンツの生成に対応する拡散モデルに対する問題的プロンプトを特定する。
この結果から,安全プロンプトベンチマークの操作により,既存の安全メカニズムを回避できると考えられるプロンプトを変換できることが示唆された。
論文 参考訳(メタデータ) (2023-10-16T02:11:20Z) - CamDiff: Camouflage Image Augmentation via Diffusion Model [83.35960536063857]
CamDiffは、カモフラージュされたシーンで透明なオブジェクトを合成するための新しいアプローチだ。
我々は,潜伏拡散モデルを用いて,カモフラージュされたシーンで有能な物体を合成する。
当社のアプローチでは、フレキシブルな編集と大規模データセットの効率的な生成を低コストで実現している。
論文 参考訳(メタデータ) (2023-04-11T19:37:47Z) - Class-Conditioned Transformation for Enhanced Robust Image Classification [19.738635819545554]
本稿では,Adrial-versa-Trained (AT)モデルを強化する新しいテスト時間脅威モデルを提案する。
コンディショナル・イメージ・トランスフォーメーションとディスタンス・ベース・予測(CODIP)を用いて動作する。
提案手法は,様々なモデル,ATメソッド,データセット,アタックタイプに関する広範な実験を通じて,最先端の成果を実証する。
論文 参考訳(メタデータ) (2023-03-27T17:28:20Z) - CADA-GAN: Context-Aware GAN with Data Augmentation [0.0]
CADA-GANはStyleGAN2-Adaモデルに適応しており、親画像の拡張とセグメンテーションに注意を払っている。
このモデルは、潜在機能表現において最も低いtextitMean Squared Error Loss (MSEloss)を持ち、生成された子イメージはベースラインモデルから生成されたものと比較して堅牢である。
論文 参考訳(メタデータ) (2023-01-21T01:52:17Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。