論文の概要: Exploring Dynamic Properties of Backdoor Training Through Information Bottleneck
- arxiv url: http://arxiv.org/abs/2511.21923v1
- Date: Wed, 26 Nov 2025 21:31:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.300881
- Title: Exploring Dynamic Properties of Backdoor Training Through Information Bottleneck
- Title(参考訳): インフォメーション・ボトルネックによるバックドアトレーニングの動的特性の探索
- Authors: Xinyu Liu, Xu Zhang, Can Chen, Ren Wang,
- Abstract要約: バックドアアタックは、トレーニングフェーズ間で進化し、攻撃機構によって異なる独自の相互情報(MI)シグネチャを生成する。
本稿では,モデルレベルでの攻撃統合を定量化する,ダイナミックスに基づく新たなステルスネス指標を提案する。
- 参考スコア(独自算出の注目度): 11.299366048896843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding how backdoor data influences neural network training dynamics remains a complex and underexplored challenge. In this paper, we present a rigorous analysis of the impact of backdoor data on the learning process, with a particular focus on the distinct behaviors between the target class and other clean classes. Leveraging the Information Bottleneck (IB) principle connected with clustering of internal representation, We find that backdoor attacks create unique mutual information (MI) signatures, which evolve across training phases and differ based on the attack mechanism. Our analysis uncovers a surprising trade-off: visually conspicuous attacks like BadNets can achieve high stealthiness from an information-theoretic perspective, integrating more seamlessly into the model than many visually imperceptible attacks. Building on these insights, we propose a novel, dynamics-based stealthiness metric that quantifies an attack's integration at the model level. We validate our findings and the proposed metric across multiple datasets and diverse attack types, offering a new dimension for understanding and evaluating backdoor threats. Our code is available in: https://github.com/XinyuLiu71/Information_Bottleneck_Backdoor.git.
- Abstract(参考訳): バックドアデータがどのようにニューラルネットワークトレーニングに影響を及ぼすかを理解することは、複雑で未調査の課題である。
本稿では,学習過程におけるバックドアデータの影響を厳密に分析し,対象クラスと他のクリーンクラスとの差異に着目した。
Information Bottleneck (IB) の原理を内部表現のクラスタリングと組み合わせることで、バックドアアタックが独自の相互情報(MI)シグネチャを生成し、トレーニングフェーズ間で進化し、アタック機構によって異なることが分かる。
BadNetsのような視覚的に目立たしい攻撃は、情報理論の観点から高いステルスネスを達成でき、多くの視覚的に受け入れがたい攻撃よりも、モデルにシームレスに統合できます。
これらの知見に基づいて、モデルレベルでの攻撃の統合を定量化する、新しいダイナミックスベースのステルスネス指標を提案する。
バックドアの脅威を理解し評価するための新しい次元を提供するため、複数のデータセットと多様な攻撃タイプにまたがって、我々の発見と提案されたメトリクスを検証する。
私たちのコードは、https://github.com/XinyuLiu71/Information_Bottleneck_Backdoor.gitで利用可能です。
関連論文リスト
- Architectural Backdoors for Within-Batch Data Stealing and Model Inference Manipulation [9.961238260113916]
建築用バックドアの最近の進歩を基盤とした,新しいバックドアのクラスを紹介する。
このような攻撃は実現可能であるだけでなく、危険なほど効果的であることを示す。
本稿では,この新たな攻撃ベクトルに対する正式な保証を提供する決定論的緩和戦略を提案する。
論文 参考訳(メタデータ) (2025-05-23T19:28:45Z) - Dullahan: Stealthy Backdoor Attack against Without-Label-Sharing Split Learning [29.842087372804905]
本稿では,非ラベル共有型スプリットラーニングアーキテクチャに適した,ステルスなバックドア攻撃戦略を提案する。
我々のSBATは、訓練中の中間パラメータの変更を控えることで、より高い攻撃ステルスネスを達成する。
論文 参考訳(メタデータ) (2024-05-21T13:03:06Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - Learning to Detect: A Data-driven Approach for Network Intrusion
Detection [17.288512506016612]
ネットワークトラフィックデータセットであるNSL-KDDについて、パターンを可視化し、異なる学習モデルを用いてサイバー攻撃を検出することで包括的な研究を行う。
侵入検知に単一学習モデルアプローチを用いた従来の浅層学習モデルや深層学習モデルとは異なり、階層戦略を採用する。
バイナリ侵入検出タスクにおける教師なし表現学習モデルの利点を実証する。
論文 参考訳(メタデータ) (2021-08-18T21:19:26Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Dynamic backdoor attacks against federated learning [0.5482532589225553]
Federated Learning(FL)は、データプライバシとセキュリティを損なうことなく、何百万人もの参加者が協力してモデルをトレーニングできる、新しい機械学習フレームワークである。
本稿では、FL設定下での動的バックドア攻撃に着目し、敵の目標は、ターゲットタスクにおけるモデルの性能を低下させることである。
我々の知る限りでは、FL設定下での動的バックドア攻撃の研究に焦点を当てた最初の論文である。
論文 参考訳(メタデータ) (2020-11-15T01:32:58Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。