論文の概要: BackdoorDM: A Comprehensive Benchmark for Backdoor Learning on Diffusion Model
- arxiv url: http://arxiv.org/abs/2502.11798v2
- Date: Mon, 21 Jul 2025 14:53:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 18:47:38.845008
- Title: BackdoorDM: A Comprehensive Benchmark for Backdoor Learning on Diffusion Model
- Title(参考訳): BackdoorDM: 拡散モデルによるバックドア学習のための総合ベンチマーク
- Authors: Weilin Lin, Nanjun Zhou, Yanyun Wang, Jianze Li, Hui Xiong, Li Liu,
- Abstract要約: バックドア学習は、ディープニューラルネットワークの脆弱性を理解するための重要な研究トピックである。
BackdoorDMは、DM上でのバックドア学習のために設計された最初の総合的なベンチマークである。
- 参考スコア(独自算出の注目度): 20.560992719382483
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Backdoor learning is a critical research topic for understanding the vulnerabilities of deep neural networks. While the diffusion model (DM) has been broadly deployed in public over the past few years, the understanding of its backdoor vulnerability is still in its infancy compared to the extensive studies in discriminative models. Recently, many different backdoor attack and defense methods have been proposed for DMs, but a comprehensive benchmark for backdoor learning on DMs is still lacking. This absence makes it difficult to conduct fair comparisons and thorough evaluations of the existing approaches, thus hindering future research progress. To address this issue, we propose \textit{BackdoorDM}, the first comprehensive benchmark designed for backdoor learning on DMs. It comprises nine state-of-the-art (SOTA) attack methods, four SOTA defense strategies, and three useful visualization analysis tools. We first systematically classify and formulate the existing literature in a unified framework, focusing on three different backdoor attack types and five backdoor target types, which are restricted to a single type in discriminative models. Then, we systematically summarize the evaluation metrics for each type and propose a unified backdoor evaluation method based on multimodal large language model (MLLM). Finally, we conduct a comprehensive evaluation and highlight several important conclusions. We believe that BackdoorDM will help overcome current barriers and contribute to building a trustworthy artificial intelligence generated content (AIGC) community. The codes are released in https://github.com/linweiii/BackdoorDM.
- Abstract(参考訳): バックドア学習は、ディープニューラルネットワークの脆弱性を理解するための重要な研究トピックである。
拡散モデル(DM)はここ数年,広く一般に普及してきたが,そのバックドア脆弱性の理解はまだ初期段階にある。
近年,DMに対するバックドア攻撃や防御手法が数多く提案されているが,DMに対するバックドア学習のための総合的ベンチマークはいまだに欠落している。
この欠如は、既存のアプローチの公正な比較と徹底的な評価を困難にし、将来の研究の進展を妨げる。
この問題に対処するため,DM上でのバックドア学習のために設計された,最初の総合的なベンチマークである‘textit{BackdoorDM} を提案する。
それは、9つの最先端(SOTA)攻撃方法、4つのSOTA防衛戦略、および3つの有用な可視化分析ツールを含む。
まず,3つの異なるバックドア攻撃タイプと5つのバックドア標的タイプに着目し,従来の文献を統一的な枠組みで体系的に分類・定式化する。
そこで我々は,各タイプの評価基準を体系的に要約し,マルチモーダル大言語モデル(MLLM)に基づく統一されたバックドア評価手法を提案する。
最後に、包括的な評価を行い、いくつかの重要な結論を強調します。
BackdoorDMは現在の障壁を克服し、信頼できる人工知能生成コンテンツ(AIGC)コミュニティの構築に貢献すると思います。
コードはhttps://github.com/linweiii/BackdoorDMで公開されている。
関連論文リスト
- BackdoorMBTI: A Backdoor Learning Multimodal Benchmark Tool Kit for Backdoor Defense Evaluation [25.107072490555844]
マルチモーダル評価のためのバックドア学習ツールキットおよびベンチマークであるBackdoorMBTIを紹介する。
BackdoorMBTIは、データ処理、データ中毒、バックドアトレーニング、評価を含む、体系的なバックドア学習パイプラインを提供する。
論文 参考訳(メタデータ) (2024-11-17T09:01:55Z) - Diff-Cleanse: Identifying and Mitigating Backdoor Attacks in Diffusion Models [3.134071086568745]
拡散モデル(DM)は、今日では最も先進的な生成モデルの一つと見なされている。
近年の研究では、DMはバックドア攻撃に弱いことが示唆されている。
この脆弱性は、モデル所有者に評判を害するなど、重大なリスクをもたらす。
Diff-Cleanseは、DM用に特別に設計された2段階のバックドア防御フレームワークである。
論文 参考訳(メタデータ) (2024-07-31T03:54:41Z) - BackdoorBench: A Comprehensive Benchmark and Analysis of Backdoor Learning [41.66647711306716]
BackdoorBenchというバックドア学習の総合ベンチマークを構築しました。
本稿では,SOTA(State-of-the-art)バックドア学習アルゴリズムの統合実装について述べる。
4つのモデルと4つのデータセットに基づいて5つの毒素比で包括的評価を行い,11,492対の攻撃・攻撃・防御評価を行った。
論文 参考訳(メタデータ) (2024-07-29T09:57:03Z) - Elijah: Eliminating Backdoors Injected in Diffusion Models via
Distribution Shift [86.92048184556936]
DMの最初のバックドア検出・除去フレームワークを提案する。
DDPM, NCSN, LDMを含む3種類のDMを用いて, フレームワークのElijahを評価した。
提案手法では, モデルの有用性を著しく損なうことなく, 検出精度が100%に近づき, バックドア効果をゼロに抑えることができる。
論文 参考訳(メタデータ) (2023-11-27T23:58:56Z) - Backdoor Attacks and Countermeasures in Natural Language Processing Models: A Comprehensive Security Review [15.179940846141873]
言語モデル(LM)は、現実世界のアプリケーションでますます人気が高まっている。
バックドア攻撃は、トリガーが存在するときに悪意のある動作が起動される深刻な脅威である。
この研究は、NLPコミュニティにバックドア攻撃と対策のタイムリーなレビューを提供することを目的としている。
論文 参考訳(メタデータ) (2023-09-12T08:48:38Z) - VillanDiffusion: A Unified Backdoor Attack Framework for Diffusion
Models [69.20464255450788]
拡散モデル(英: Diffusion Models, DM)は、可逆的ノイズ付加から可逆的腐敗過程を学習し、雑音を除去する手法である。
最近の研究では、基本的な無条件DMがバックドア注入に弱いことが示されている。
本稿では,DMのバックドア分析の現在の範囲を広げるために,統合されたバックドア攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-12T05:14:13Z) - Backdoor Attacks on Crowd Counting [63.90533357815404]
クラウドカウント(Crowd counting)は、シーンイメージ内の人数を推定する回帰タスクである。
本稿では,深層学習に基づくクラウドカウントモデルのバックドア攻撃に対する脆弱性について検討する。
論文 参考訳(メタデータ) (2022-07-12T16:17:01Z) - BackdoorBench: A Comprehensive Benchmark of Backdoor Learning [57.932398227755044]
バックドア学習は、ディープニューラルネットワーク(DNN)の脆弱性を研究する上で、新しく重要なトピックである
多くの先駆的なバックドア攻撃と防衛手法が、素早い武器競争の状況において、連続的または同時に提案されている。
BackdoorBenchというバックドア学習の総合的なベンチマークを構築しています。
論文 参考訳(メタデータ) (2022-06-25T13:48:04Z) - A Unified Evaluation of Textual Backdoor Learning: Frameworks and
Benchmarks [72.7373468905418]
我々は,テキストバックドア学習の実装と評価を促進するオープンソースツールキットOpenBackdoorを開発した。
また,単純なクラスタリングに基づく防御ベースラインであるCUBEを提案する。
論文 参考訳(メタデータ) (2022-06-17T02:29:23Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Backdoor Learning: A Survey [75.59571756777342]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-17T04:09:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。