論文の概要: BackdoorDM: A Comprehensive Benchmark for Backdoor Learning in Diffusion Model
- arxiv url: http://arxiv.org/abs/2502.11798v1
- Date: Mon, 17 Feb 2025 13:39:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:08:01.142630
- Title: BackdoorDM: A Comprehensive Benchmark for Backdoor Learning in Diffusion Model
- Title(参考訳): BackdoorDM: 拡散モデルにおけるバックドア学習の総合ベンチマーク
- Authors: Weilin Lin, Nanjun Zhou, Yanyun Wang, Jianze Li, Hui Xiong, Li Liu,
- Abstract要約: 拡散モデル(DM)におけるバックドア学習は、新しい研究ホットスポットである。
BackdoorDMは、DMにおけるバックドア学習のために設計された最初の総合的なベンチマークである。
9つの最新技術(SOTA)攻撃方法と4つのSOTA防衛戦略と2つの視覚化分析ツールから構成される。
- 参考スコア(独自算出の注目度): 20.560992719382483
- License:
- Abstract: Backdoor learning is a critical research topic for understanding the vulnerabilities of deep neural networks. While it has been extensively studied in discriminative models over the past few years, backdoor learning in diffusion models (DMs) has recently attracted increasing attention, becoming a new research hotspot. Although many different backdoor attack and defense methods have been proposed for DMs, a comprehensive benchmark for backdoor learning in DMs is still lacking. This absence makes it difficult to conduct fair comparisons and thoroughly evaluate existing approaches, thus hindering future research progress. To address this issue, we propose BackdoorDM, the first comprehensive benchmark designed for backdoor learning in DMs. It comprises nine state-of-the-art (SOTA) attack methods, four SOTA defense strategies, and two helpful visualization analysis tools. We first systematically classify and formulate the existing literature in a unified framework, focusing on three different backdoor attack types and five backdoor target types, which are restricted to a single type in discriminative models. Then, we systematically summarize the evaluation metrics for each type and propose a unified backdoor evaluation method based on GPT-4o. Finally, we conduct a comprehensive evaluation and highlight several important conclusions. We believe that BackdoorDM will help overcome current barriers and contribute to building a trustworthy DMs community. The codes are released in https://github.com/linweiii/BackdoorDM.
- Abstract(参考訳): バックドア学習は、ディープニューラルネットワークの脆弱性を理解するための重要な研究トピックである。
近年,差別モデルにおいて広く研究されてきたが,近年,拡散モデル(DM)におけるバックドア学習が注目され,新たなホットスポットとなっている。
DMに対するバックドア攻撃や防御手法は数多く提案されているが、DMにおけるバックドア学習のための総合的なベンチマークはいまだに欠落している。
この欠如は、公正な比較を行い、既存のアプローチを徹底的に評価することが難しく、将来の研究の進展を妨げる。
この問題に対処するため,本研究では,DMにおけるバックドア学習のための総合的なベンチマークであるBackdoorDMを提案する。
9つの最新技術(SOTA)攻撃方法と4つのSOTA防衛戦略と2つの視覚化分析ツールから構成される。
まず,3つの異なるバックドア攻撃タイプと5つのバックドア標的タイプに着目し,従来の文献を統一的な枠組みで体系的に分類・定式化する。
そこで本研究では,各タイプの評価基準を体系的に要約し,GPT-4oに基づく統一裏口評価手法を提案する。
最後に、包括的な評価を行い、いくつかの重要な結論を強調します。
BackdoorDMは現在の障壁を克服し、信頼できるDMコミュニティの構築に貢献すると思います。
コードはhttps://github.com/linweiii/BackdoorDMで公開されている。
関連論文リスト
- BackdoorMBTI: A Backdoor Learning Multimodal Benchmark Tool Kit for Backdoor Defense Evaluation [25.107072490555844]
マルチモーダル評価のためのバックドア学習ツールキットおよびベンチマークであるBackdoorMBTIを紹介する。
BackdoorMBTIは、データ処理、データ中毒、バックドアトレーニング、評価を含む、体系的なバックドア学習パイプラインを提供する。
論文 参考訳(メタデータ) (2024-11-17T09:01:55Z) - Diff-Cleanse: Identifying and Mitigating Backdoor Attacks in Diffusion Models [3.134071086568745]
拡散モデル(DM)は、今日では最も先進的な生成モデルの一つと見なされている。
近年の研究では、DMはバックドア攻撃に弱いことが示唆されている。
この脆弱性は、モデル所有者に評判を害するなど、重大なリスクをもたらす。
Diff-Cleanseは、DM用に特別に設計された2段階のバックドア防御フレームワークである。
論文 参考訳(メタデータ) (2024-07-31T03:54:41Z) - BackdoorBench: A Comprehensive Benchmark and Analysis of Backdoor Learning [41.66647711306716]
BackdoorBenchというバックドア学習の総合ベンチマークを構築しました。
本稿では,SOTA(State-of-the-art)バックドア学習アルゴリズムの統合実装について述べる。
4つのモデルと4つのデータセットに基づいて5つの毒素比で包括的評価を行い,11,492対の攻撃・攻撃・防御評価を行った。
論文 参考訳(メタデータ) (2024-07-29T09:57:03Z) - VillanDiffusion: A Unified Backdoor Attack Framework for Diffusion
Models [69.20464255450788]
拡散モデル(英: Diffusion Models, DM)は、可逆的ノイズ付加から可逆的腐敗過程を学習し、雑音を除去する手法である。
最近の研究では、基本的な無条件DMがバックドア注入に弱いことが示されている。
本稿では,DMのバックドア分析の現在の範囲を広げるために,統合されたバックドア攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-12T05:14:13Z) - Backdoor Attacks on Crowd Counting [63.90533357815404]
クラウドカウント(Crowd counting)は、シーンイメージ内の人数を推定する回帰タスクである。
本稿では,深層学習に基づくクラウドカウントモデルのバックドア攻撃に対する脆弱性について検討する。
論文 参考訳(メタデータ) (2022-07-12T16:17:01Z) - BackdoorBench: A Comprehensive Benchmark of Backdoor Learning [57.932398227755044]
バックドア学習は、ディープニューラルネットワーク(DNN)の脆弱性を研究する上で、新しく重要なトピックである
多くの先駆的なバックドア攻撃と防衛手法が、素早い武器競争の状況において、連続的または同時に提案されている。
BackdoorBenchというバックドア学習の総合的なベンチマークを構築しています。
論文 参考訳(メタデータ) (2022-06-25T13:48:04Z) - A Unified Evaluation of Textual Backdoor Learning: Frameworks and
Benchmarks [72.7373468905418]
我々は,テキストバックドア学習の実装と評価を促進するオープンソースツールキットOpenBackdoorを開発した。
また,単純なクラスタリングに基づく防御ベースラインであるCUBEを提案する。
論文 参考訳(メタデータ) (2022-06-17T02:29:23Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Backdoor Learning: A Survey [75.59571756777342]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-17T04:09:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。