論文の概要: IdentityGuard: Context-Aware Restriction and Provenance for Personalized Synthesis
- arxiv url: http://arxiv.org/abs/2603.15679v1
- Date: Sat, 14 Mar 2026 08:38:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:06.877804
- Title: IdentityGuard: Context-Aware Restriction and Provenance for Personalized Synthesis
- Title(参考訳): IdentityGuard: パーソナライズド・シンセサイザーのためのコンテキスト認識の制限と証明
- Authors: Lingyun Zhang, Yu Xie, Ping Chen,
- Abstract要約: 私たちの研究は、セキュリティは脅威そのものと同じくらいコンテキストに意識すべきであり、本質的にパーソナライズされた概念に結びついている、という原則に基づいています。
本稿では,パーソナライズされたアイデンティティと組み合わせることで,有害コンテンツをブロックする条件付き制約により,この原則を実現するIDENTITYGUARDを提案する。
実験により、我々のアプローチはモデルの実用性を維持しながら誤用を防ぎ、堅牢なトレーサビリティを実現する。
- 参考スコア(独自算出の注目度): 11.116425897665058
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The nature of personalized text-to-image models poses a unique safety challenge that generic context-blind methods are ill-equipped to handle. Such global filters create a dilemma: to prevent misuse, they are forced to damage the model's broader utility by erasing concepts entirely, causing unacceptable collateral damage.Our work presents a more precisely targeted approach, built on the principle that security should be as context-aware as the threat itself, intrinsically bound to the personalized concept. We present IDENTITYGUARD, which realizes this principle through a conditional restriction that blocks harmful content only when combined with the personalized identity, and a concept-specific watermark for precise traceability. Experiments show our approach prevents misuse while preserving the model's utility and enabling robust traceability. By moving beyond blunt, global filters, our work demonstrates a more effective and responsible path toward AI safety.
- Abstract(参考訳): パーソナライズされたテキスト・ツー・イメージモデルの性質は、一般的なコンテキスト・ブラインド・メソッドが扱いに不適当である、ユニークな安全性の課題を提起する。
このようなグローバルフィルタはジレンマを発生させる: 誤用を防ぐために、完全に概念を消去してモデル全体の実用性を損なうことを余儀なくされる。
本稿では,個人化されたアイデンティティと組み合わせた場合にのみ有害なコンテンツをブロックする条件制約と,正確なトレーサビリティのための概念固有の透かしによって,この原理を実現するIDENTITYGUARDを提案する。
実験により、我々のアプローチはモデルの実用性を維持しながら誤用を防ぎ、堅牢なトレーサビリティを実現する。
グローバルなフィルターを超えて、我々の研究はAIの安全性へのより効果的で責任ある道を示す。
関連論文リスト
- When Personalization Legitimizes Risks: Uncovering Safety Vulnerabilities in Personalized Dialogue Agents [49.341830745910194]
本稿では,パーソナライズされたエージェントの安全性障害である意図的正当性を明らかにする。
我々の研究は、安全障害モードとしての意図的正当性の最初の体系的な調査と評価を提供する。
論文 参考訳(メタデータ) (2026-01-25T15:42:01Z) - SafeRedir: Prompt Embedding Redirection for Robust Unlearning in Image Generation Models [67.84174763413178]
我々はSafeRedirを紹介した。SafeRedirは、迅速な埋め込みリダイレクトによる堅牢なアンラーニングのための軽量な推論時フレームワークである。
SafeRedirは,効果的な非学習能力,意味的・知覚的保存能力,堅牢な画像品質,対人攻撃に対する耐性の向上を実現している。
論文 参考訳(メタデータ) (2026-01-13T15:01:38Z) - Adapter Shield: A Unified Framework with Built-in Authentication for Preventing Unauthorized Zero-Shot Image-to-Image Generation [74.5813283875938]
ゼロショット画像・画像生成は知的財産権侵害に重大なリスクをもたらす。
この研究は、個人イメージを誤用から守ることを目的とした、最初の普遍的および認証統合ソリューションであるAdapter Shieldを提示する。
提案手法は, ゼロショット画像合成の不正化において, 最先端の防御を克服する。
論文 参考訳(メタデータ) (2025-11-25T04:49:16Z) - Fragile by Design: On the Limits of Adversarial Defenses in Personalized Generation [26.890796322896346]
Anti-DreamBoothのような防御機構は、顔認証漏洩のリスクを軽減する。
これらの手法の2つの重要かつ見過ごされた限界を同定する。
その結果、現在の手法はいずれもそのような脅威下での保護効果を維持していないことが明らかとなった。
論文 参考訳(メタデータ) (2025-11-13T14:56:25Z) - SafeGuider: Robust and Practical Content Safety Control for Text-to-Image Models [74.11062256255387]
テキスト・ツー・イメージのモデルは、安全対策を回避し、有害なコンテンツを生成できる敵のプロンプトに対して非常に脆弱である。
SafeGuiderは, 生成品質を損なうことなく, 堅牢な安全制御を実現するための2段階のフレームワークである。
SafeGuiderは攻撃成功率の最小化において例外的な効果を示し、様々な攻撃シナリオで最大速度は5.48%である。
論文 参考訳(メタデータ) (2025-10-05T10:24:48Z) - GIFT: Gradient-aware Immunization of diffusion models against malicious Fine-Tuning with safe concepts retention [5.429335132446078]
GIFT: 拡散モデルを守るグラディエント対応免疫技術。
論文 参考訳(メタデータ) (2025-07-18T01:47:07Z) - CURE: Concept Unlearning via Orthogonal Representation Editing in Diffusion Models [7.68494752148263]
CUREは、事前訓練された拡散モデルの重み空間で直接動作する、トレーニング不要の概念未学習フレームワークである。
スペクトル消去器は、安全な属性を保持しながら、望ましくない概念に特有の特徴を特定し、分離する。
CUREは、対象とする芸術スタイル、オブジェクト、アイデンティティ、明示的なコンテンツに対して、より効率的で徹底的な除去を実現する。
論文 参考訳(メタデータ) (2025-05-19T03:53:06Z) - Safety Without Semantic Disruptions: Editing-free Safe Image Generation via Context-preserving Dual Latent Reconstruction [88.18235230849554]
大規模で未処理のデータセットでマルチモーダル生成モデルをトレーニングすることで、ユーザは有害で安全でない、議論の余地のない、文化的に不適切なアウトプットにさらされる可能性がある。
我々は、安全な埋め込みと、より安全な画像を生成するために、潜伏空間の重み付け可能な総和による修正拡散プロセスを活用する。
安全と検閲のトレードオフを特定し、倫理的AIモデルの開発に必要な視点を提示します。
論文 参考訳(メタデータ) (2024-11-21T09:47:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。