論文の概要: Responsible Diffusion: A Comprehensive Survey on Safety, Ethics, and Trust in Diffusion Models
- arxiv url: http://arxiv.org/abs/2509.22723v1
- Date: Thu, 25 Sep 2025 02:51:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.823592
- Title: Responsible Diffusion: A Comprehensive Survey on Safety, Ethics, and Trust in Diffusion Models
- Title(参考訳): 責任拡散(Responsible Diffusion): 拡散モデルにおける安全性・倫理・信頼に関する包括的調査
- Authors: Kang Wei, Xin Yuan, Fushuo Huo, Chuan Ma, Long Yuan, Songze Li, Ming Ding, Dacheng Tao,
- Abstract要約: 拡散モデル(DM)は,高品質なデータを生成する能力から,様々な領域で研究されている。
従来のディープラーニングシステムと同様に、DMに対する潜在的な脅威も存在する。
この調査は、その枠組み、脅威、および対策を包括的に解明する。
- 参考スコア(独自算出の注目度): 69.22690439422531
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models (DMs) have been investigated in various domains due to their ability to generate high-quality data, thereby attracting significant attention. However, similar to traditional deep learning systems, there also exist potential threats to DMs. To provide advanced and comprehensive insights into safety, ethics, and trust in DMs, this survey comprehensively elucidates its framework, threats, and countermeasures. Each threat and its countermeasures are systematically examined and categorized to facilitate thorough analysis. Furthermore, we introduce specific examples of how DMs are used, what dangers they might bring, and ways to protect against these dangers. Finally, we discuss key lessons learned, highlight open challenges related to DM security, and outline prospective research directions in this critical field. This work aims to accelerate progress not only in the technical capabilities of generative artificial intelligence but also in the maturity and wisdom of its application.
- Abstract(参考訳): 拡散モデル (DM) は, 高品質なデータを生成する能力により, 様々な領域で研究されており, 注目されている。
しかし、従来のディープラーニングシステムと同様に、DMに対する潜在的な脅威も存在する。
DMの安全性、倫理、信頼に関する高度な総合的な洞察を提供するため、この調査は、その枠組み、脅威、および対策を包括的に解明する。
各脅威とその対策は体系的に検討され、徹底的な分析を容易にするために分類される。
さらに、DMの使用方法、どのような危険をもたらすか、そしてこれらの危険から保護する方法の具体例についても紹介する。
最後に,DMのセキュリティに関するオープンな課題を明らかにするとともに,この重要な分野における今後の研究の方向性を概説する。
この研究は、生成人工知能の技術的能力だけでなく、その応用の成熟と知恵の進歩を加速することを目的としている。
関連論文リスト
- Safety at Scale: A Comprehensive Survey of Large Model and Agent Safety [296.5392512998251]
我々は、敵攻撃、データ中毒、バックドア攻撃、ジェイルブレイクとプロンプトインジェクション攻撃、エネルギー遅延攻撃、データとモデル抽出攻撃、出現するエージェント固有の脅威を含む、大規模なモデルに対する安全脅威の包括的分類を提示する。
我々は、大規模なモデル安全性におけるオープンな課題を特定し、議論し、包括的な安全性評価、スケーラブルで効果的な防御機構、持続可能なデータプラクティスの必要性を強調します。
論文 参考訳(メタデータ) (2025-02-02T05:14:22Z) - Deep Learning Model Inversion Attacks and Defenses: A Comprehensive Survey [18.304096609558925]
モデル反転(MI)攻撃は個人情報のプライバシーと完全性に重大な脅威をもたらす。
本調査は,MI攻撃と防衛戦略について,構造化された詳細な検討を行うことで,文献のギャップを埋めることを目的としている。
本調査と合わせて,MI攻撃・防衛研究を支援する総合リポジトリを開発した。
論文 参考訳(メタデータ) (2025-01-31T07:32:12Z) - Attacks and Defenses for Generative Diffusion Models: A Comprehensive Survey [5.300811350105823]
拡散モデル (DM) は様々な生成タスクにおいて最先端の性能を達成した。
近年の研究では、DMは幅広い攻撃を受けやすいことが示されている。
論文 参考訳(メタデータ) (2024-08-06T18:52:17Z) - To Generate or Not? Safety-Driven Unlearned Diffusion Models Are Still Easy To Generate Unsafe Images ... For Now [22.75295925610285]
拡散モデル(DM)は、現実的で複雑な画像の生成に革命をもたらした。
DMはまた、有害なコンテンツの生成やデータ著作権の侵害など、潜在的な安全上の危険性も導入している。
安全駆動の未学習技術の発展にもかかわらず、その有効性に対する疑念は続いている。
論文 参考訳(メタデータ) (2023-10-18T10:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。