論文の概要: Enhancing Adversarial Robustness with Conformal Prediction: A Framework for Guaranteed Model Reliability
- arxiv url: http://arxiv.org/abs/2506.07804v1
- Date: Mon, 09 Jun 2025 14:33:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.9953
- Title: Enhancing Adversarial Robustness with Conformal Prediction: A Framework for Guaranteed Model Reliability
- Title(参考訳): 共形予測による対向ロバスト性向上:モデルの信頼性確保のためのフレームワーク
- Authors: Jie Bao, Chuangyin Dang, Rui Luo, Hanwei Zhang, Zhixin Zhou,
- Abstract要約: 本研究は, コンフォーマル予測の原理を活かして, 対人訓練を推し進める。
我々は,共形予測の効率を抑えるために,OPSA(Optimal Size Attack)と呼ばれる敵攻撃法を開発した。
OPSA-AT(Adversarial Training)は,OPSAを新たなコンフォーマルトレーニングパラダイムに統合する防衛戦略である。
- 参考スコア(独自算出の注目度): 12.695100767905243
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As deep learning models are increasingly deployed in high-risk applications, robust defenses against adversarial attacks and reliable performance guarantees become paramount. Moreover, accuracy alone does not provide sufficient assurance or reliable uncertainty estimates for these models. This study advances adversarial training by leveraging principles from Conformal Prediction. Specifically, we develop an adversarial attack method, termed OPSA (OPtimal Size Attack), designed to reduce the efficiency of conformal prediction at any significance level by maximizing model uncertainty without requiring coverage guarantees. Correspondingly, we introduce OPSA-AT (Adversarial Training), a defense strategy that integrates OPSA within a novel conformal training paradigm. Experimental evaluations demonstrate that our OPSA attack method induces greater uncertainty compared to baseline approaches for various defenses. Conversely, our OPSA-AT defensive model significantly enhances robustness not only against OPSA but also other adversarial attacks, and maintains reliable prediction. Our findings highlight the effectiveness of this integrated approach for developing trustworthy and resilient deep learning models for safety-critical domains. Our code is available at https://github.com/bjbbbb/Enhancing-Adversarial-Robustness-with-Conformal-Prediction.
- Abstract(参考訳): ディープラーニングモデルがリスクの高いアプリケーションにますます導入されるにつれて、敵攻撃に対する堅牢な防御と信頼性の高いパフォーマンス保証が最重要となる。
さらに、精度だけではこれらのモデルに対する十分な保証や確実な不確実性は提供されない。
本研究は, コンフォーマル予測の原理を活かして, 対人訓練を推し進める。
具体的には,モデルの不確実性を最大化することにより,任意の意味レベルでの共形予測の効率を最大化することを目的として,OPSA(Optimal Size Attack)と呼ばれる敵攻撃手法を開発した。
一方,OPSA-AT(Adversarial Training)は,OPSAを新たなコンフォーマルトレーニングパラダイムに統合する防衛戦略である。
実験により, OPSA攻撃法は, 各種防御に対するベースラインアプローチに比べ, より不確実性が高いことが示された。
逆に,OPSA-AT防衛モデルはOPSAだけでなく,他の敵攻撃に対する堅牢性を著しく向上させ,信頼性の高い予測を維持できる。
本研究は,安全クリティカルドメインのための信頼性とレジリエントなディープラーニングモデル開発における,この統合アプローチの有効性を強調した。
私たちのコードはhttps://github.com/bjbbbb/Enhancing-Adversarial-Robustness-with-Conformal-Predictionで公開されています。
関連論文リスト
- Game-Theoretic Defenses for Robust Conformal Prediction Against Adversarial Attacks in Medical Imaging [12.644923600594176]
敵対的攻撃は、ディープラーニングモデルの信頼性と安全性に重大な脅威をもたらす。
本稿では,共形予測とゲーム理論の防衛戦略を統合する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-11-07T02:20:04Z) - Enhancing Adversarial Text Attacks on BERT Models with Projected Gradient Descent [0.0]
ディープラーニングモデルに対するアドリアック攻撃は、自然言語処理システムのセキュリティと信頼性に対する大きな脅威である。
本稿では,BERT-Attackフレームワークを改良し,PGD(Projected Gradient Descent)を統合し,その有効性と堅牢性を高めることを提案する。
論文 参考訳(メタデータ) (2024-07-29T09:07:29Z) - The Pitfalls and Promise of Conformal Inference Under Adversarial Attacks [90.52808174102157]
医療画像や自律運転などの安全クリティカルな応用においては、高い敵の堅牢性を維持し、潜在的敵の攻撃から保護することが不可欠である。
敵対的に訓練されたモデルに固有の不確実性に関して、注目すべき知識ギャップが残っている。
本研究では,共形予測(CP)の性能を標準対向攻撃の文脈で検証することにより,ディープラーニングモデルの不確実性について検討する。
論文 参考訳(メタデータ) (2024-05-14T18:05:19Z) - Perturbation-Invariant Adversarial Training for Neural Ranking Models:
Improving the Effectiveness-Robustness Trade-Off [107.35833747750446]
正統な文書に不可避な摂動を加えることで 敵の例を作れます
この脆弱性は信頼性に関する重大な懸念を生じさせ、NRMの展開を妨げている。
本研究では,NRMにおける有効・損耗トレードオフに関する理論的保証を確立する。
論文 参考訳(メタデータ) (2023-12-16T05:38:39Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Boosting Adversarial Training with Hypersphere Embedding [53.75693100495097]
敵対的訓練は、ディープラーニングモデルに対する敵対的攻撃に対する最も効果的な防御の1つである。
本研究では,超球埋め込み機構をATプロシージャに組み込むことを提唱する。
我々は,CIFAR-10 と ImageNet データセットに対する幅広い敵対攻撃の下で本手法を検証した。
論文 参考訳(メタデータ) (2020-02-20T08:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。