論文の概要: A unified Bayesian framework for adversarial robustness
- arxiv url: http://arxiv.org/abs/2510.09288v1
- Date: Fri, 10 Oct 2025 11:28:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:48.800209
- Title: A unified Bayesian framework for adversarial robustness
- Title(参考訳): 対向ロバスト性のための統一ベイズ的枠組み
- Authors: Pablo G. Arce, Roi Naveiro, David Ríos Insua,
- Abstract要約: チャネルを通して敵の不確実性をモデル化する形式的ベイズ的枠組みを導入する。
これは2つの強固化戦略、すなわち、訓練中に制定された積極的防御と、作戦中に制定された反応性防衛と、敵の浄化に適合する。
我々は,我々の方法論を実証的に検証し,敵の不確実性を明示的にモデル化する利点を示す。
- 参考スコア(独自算出の注目度): 0.4078247440919472
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The vulnerability of machine learning models to adversarial attacks remains a critical security challenge. Traditional defenses, such as adversarial training, typically robustify models by minimizing a worst-case loss. However, these deterministic approaches do not account for uncertainty in the adversary's attack. While stochastic defenses placing a probability distribution on the adversary exist, they often lack statistical rigor and fail to make explicit their underlying assumptions. To resolve these issues, we introduce a formal Bayesian framework that models adversarial uncertainty through a stochastic channel, articulating all probabilistic assumptions. This yields two robustification strategies: a proactive defense enacted during training, aligned with adversarial training, and a reactive defense enacted during operations, aligned with adversarial purification. Several previous defenses can be recovered as limiting cases of our model. We empirically validate our methodology, showcasing the benefits of explicitly modeling adversarial uncertainty.
- Abstract(参考訳): 機械学習モデルの敵攻撃に対する脆弱性は、依然として重要なセキュリティ上の課題である。
敵の訓練のような伝統的な防御は、最悪の場合の損失を最小限に抑えてモデルを強化するのが一般的である。
しかし、これらの決定論的アプローチは、敵の攻撃の不確実性を考慮していない。
確率分布を敵に配置する確率的防御は存在するが、統計的な厳密さが欠如し、基礎となる仮定を明確にすることができないことが多い。
これらの問題を解決するために、確率的チャネルを通して逆不確実性をモデル化し、全ての確率的仮定を明示する形式的ベイズ的枠組みを導入する。
これは2つの強固化戦略、すなわち、訓練中に制定された積極的防御と、作戦中に制定された反応性防衛と、敵の浄化に適合する。
モデルの限定的なケースとして、いくつかの過去のディフェンスを復元することができる。
我々は,我々の方法論を実証的に検証し,敵の不確実性を明示的にモデル化する利点を示す。
関連論文リスト
- Enhancing Adversarial Robustness via Uncertainty-Aware Distributional Adversarial Training [43.766504246864045]
そこで本研究では,不確実性を考慮した分散対向学習手法を提案する。
提案手法は, 最先端の対向性を実現し, 自然性能を維持できる。
論文 参考訳(メタデータ) (2024-11-05T07:26:24Z) - Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Adversarial Purification with the Manifold Hypothesis [14.085013765853226]
この枠組みを用いた逆浄化法を開発した。
我々のアプローチは、攻撃者が防衛の存在を認識しているとしても、敵の堅牢性を提供することができる。
論文 参考訳(メタデータ) (2022-10-26T01:00:57Z) - Rethinking Textual Adversarial Defense for Pre-trained Language Models [79.18455635071817]
文献レビューでは、事前訓練された言語モデル(PrLM)が敵の攻撃に弱いことが示されている。
本稿では、現在の敵攻撃アプローチにより、より自然で知覚不能な敵の例を生成するための新しい指標(異常の度合い)を提案する。
我々は,我々のユニバーサル・ディフェンス・フレームワークが,他の特定のディフェンスと同等あるいはそれ以上のアフターアタック・ディフェンスの精度を達成することを示す。
論文 参考訳(メタデータ) (2022-07-21T07:51:45Z) - Formulating Robustness Against Unforeseen Attacks [34.302333899025044]
本稿では,訓練中の防衛が想定する脅威モデルにミスマッチが存在するシナリオに焦点を当てる。
学習者が特定の"ソース"脅威モデルに対してトレーニングした場合、テスト期間中に、より強力な未知の"ターゲット"脅威モデルにロバスト性が一般化できることをいつ期待できるか?
本稿では,AT-VRを用いた対戦型トレーニングを提案し,トレーニング中の特徴抽出器の変動を低減させる。
論文 参考訳(メタデータ) (2022-04-28T21:03:36Z) - Improving White-box Robustness of Pre-processing Defenses via Joint Adversarial Training [106.34722726264522]
対向騒音の干渉を軽減するため,様々な対向防御技術が提案されている。
プレプロセス法は、ロバストネス劣化効果に悩まされることがある。
この負の効果の潜在的な原因は、敵の訓練例が静的であり、前処理モデルとは独立していることである。
本稿では,JATP(Joint Adversarial Training Based Pre-processing)防衛法を提案する。
論文 参考訳(メタデータ) (2021-06-10T01:45:32Z) - Are Adversarial Examples Created Equal? A Learnable Weighted Minimax
Risk for Robustness under Non-uniform Attacks [70.11599738647963]
敵の訓練は、強力な攻撃に耐える数少ない防衛の1つである。
従来の防御機構は、基礎となるデータ分布に従って、サンプルに対する均一な攻撃を前提とします。
非一様攻撃に対して重み付けされたミニマックスリスク最適化を提案する。
論文 参考訳(メタデータ) (2020-10-24T21:20:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。