論文の概要: Ensuring Calibration Robustness in Split Conformal Prediction Under Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2511.18562v1
- Date: Sun, 23 Nov 2025 18:16:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.90099
- Title: Ensuring Calibration Robustness in Split Conformal Prediction Under Adversarial Attacks
- Title(参考訳): 対向攻撃による分別等角予測における校正ロバスト性確保
- Authors: Xunlei Qian, Yue Xing,
- Abstract要約: コンフォーマル予測(CP)は、分布のない有限サンプルのカバレッジを保証するが、交換可能性に依存している。
本研究では, 対向的摂動下での分割共形予測のロバスト性について検討し, 適用範囲の妥当性と結果の予測セットサイズに着目した。
- 参考スコア(独自算出の注目度): 5.250749912706834
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conformal prediction (CP) provides distribution-free, finite-sample coverage guarantees but critically relies on exchangeability, a condition often violated under distribution shift. We study the robustness of split conformal prediction under adversarial perturbations at test time, focusing on both coverage validity and the resulting prediction set size. Our theoretical analysis characterizes how the strength of adversarial perturbations during calibration affects coverage guarantees under adversarial test conditions. We further examine the impact of adversarial training at the model-training stage. Extensive experiments support our theory: (i) Prediction coverage varies monotonically with the calibration-time attack strength, enabling the use of nonzero calibration-time attack to predictably control coverage under adversarial tests; (ii) target coverage can hold over a range of test-time attacks: with a suitable calibration attack, coverage stays within any chosen tolerance band across a contiguous set of perturbation levels; and (iii) adversarial training at the training stage produces tighter prediction sets that retain high informativeness.
- Abstract(参考訳): コンフォーマル予測(CP)は、分布のない有限サンプルのカバレッジを保証するが、重要なことは交換可能性に依存する。
本研究では, 対向的摂動下での分割共形予測のロバスト性について検討し, 適用範囲の妥当性と結果の予測セットサイズに着目した。
理論解析では, キャリブレーション時の対向摂動強度が対向試験条件下でのカバレッジ保証にどのように影響するかを特徴付ける。
さらに,モデル学習段階における対人訓練の効果について検討した。
大規模な実験は我々の理論を支持します。
一 キャリブレーション時攻撃力により予測範囲は単調に変化し、非ゼロキャリブレーション時攻撃により敵検定時のカバレッジを予測可能とする。
二 標的範囲は、適度な校正攻撃により、連続した摂動レベルを越えて選択された許容範囲内に留まる。
三 訓練段階における敵の訓練は、高い情報性を維持するためのより厳密な予測セットを生成する。
関連論文リスト
- Calibrating Uncertainty for Zero-Shot Adversarial CLIP [33.707647228637114]
予測精度と不確実性アライメントの両方を考慮した,CLIPの新たな逆調整目標を提案する。
我々の目的は、これらの分布を摂動の下で均等に整列させ、シングルログのアンカーを超えて不確実性を回復することである。
論文 参考訳(メタデータ) (2025-12-15T05:41:08Z) - Distribution-informed Online Conformal Prediction [53.674678995825666]
更新ルールに基礎となるデータパターンを組み込んだオンラインコンフォメーション予測アルゴリズムである Conformal Optimistic Prediction (COP) を提案する。
COPは予測可能なパターンが存在する場合により厳密な予測セットを生成し、見積もりが不正確な場合でも有効なカバレッジ保証を保持する。
我々は,COPが有効なカバレッジを実現し,他のベースラインよりも短い予測間隔を構築できることを証明した。
論文 参考訳(メタデータ) (2025-12-08T17:51:49Z) - Uncertainty-Aware Post-Hoc Calibration: Mitigating Confidently Incorrect Predictions Beyond Calibration Metrics [6.9681910774977815]
本稿では、校正品質と不確実性を考慮した意思決定を向上させるためのポストホック校正フレームワークを提案する。
校正基準,不確実性認識性能測定,実証的コンフォメーションカバレッジを用いて総合評価を行った。
実験により,提案手法はイソトニックおよび焦点損失ベースラインと比較して,信頼性の低い予測精度と競合予測誤差を実現することが示された。
論文 参考訳(メタデータ) (2025-10-19T23:55:36Z) - Adaptive Individual Uncertainty under Out-Of-Distribution Shift with Expert-Routed Conformal Prediction [8.306260695214972]
信頼度の高い適応区間(TESSERA)のスケールド推定を用いた信頼度エキスパートスプリット・コンフォーマルを導入する。
TESSERAは、絶対誤差を追跡する信頼性の高いカバレッジ保証、情報的かつ適応的な予測間隔幅を備えたサンプル単位の不確実性を提供する。
タンパク質-リガンド結合親和性予測は, 独立および同一分布 (d.d.) と足場ベースアウト・オブ・ディストリビューション (OOD) の双方で評価した。
論文 参考訳(メタデータ) (2025-10-17T01:51:33Z) - COIN: Uncertainty-Guarding Selective Question Answering for Foundation Models with Provable Risk Guarantees [51.5976496056012]
COINは、統計的に有効な閾値を校正し、質問毎に1つの生成された回答をフィルタリングする不確実性保護選択フレームワークである。
COINはキャリブレーションセット上で経験的誤差率を推定し、信頼区間法を適用して真誤差率に高い確率上界を確立する。
リスク管理におけるCOINの堅牢性,許容回答を維持するための強いテストタイムパワー,キャリブレーションデータによる予測効率を実証する。
論文 参考訳(メタデータ) (2025-06-25T07:04:49Z) - Generalization and Informativeness of Weighted Conformal Risk Control Under Covariate Shift [40.43703709267958]
重み付き共形リスク制御(W-CRC)は、トレーニングフェーズ中に収集されたデータを使用して、ポイント予測をテスト時に有効なリスク保証を備えた予測セットに変換する。
W-CRCは統計的信頼性を提供するが、その効率(予測セットのサイズによって測定される)はテスト時にのみ評価できる。
論文 参考訳(メタデータ) (2025-01-20T11:26:36Z) - Conformal Prediction Sets with Improved Conditional Coverage using Trust Scores [52.92618442300405]
有限サンプルにおいて、正確に分布のない条件付きカバレッジを達成することは不可能である。
本稿では,最も重要となる範囲を対象とするコンフォメーション予測アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-01-17T12:01:56Z) - Bin-Conditional Conformal Prediction of Fatalities from Armed Conflict [0.5312303275762104]
ユーザ定義サブセット間の一貫したカバレッジ率を確保することにより、標準コンフォメーション予測を強化するビン条件コンフォメーション予測(BCCP)を導入する。
標準共形予測と比較すると、BCCPは局所的カバレッジを改善するが、これはわずかに広い予測間隔のコストがかかる。
論文 参考訳(メタデータ) (2024-10-18T14:41:42Z) - Provably Reliable Conformal Prediction Sets in the Presence of Data Poisoning [53.42244686183879]
コンフォーマル予測は、モデルに依存しない、分布のない不確実性定量化を提供する。
しかし、敵が訓練データと校正データを操作した場合の毒殺攻撃では、共形予測は信頼性が低い。
信頼性予測セット (RPS): 汚染下での信頼性保証を証明可能な共形予測セットを構築するための最初の効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-13T15:37:11Z) - Towards Certification of Uncertainty Calibration under Adversarial Attacks [96.48317453951418]
攻撃はキャリブレーションを著しく損なう可能性を示し, 対向的摂動下でのキャリブレーションにおける最悪のキャリブレーション境界として認定キャリブレーションを提案する。
我々は,新しいキャリブレーション攻撃を提案し,テクスタディバーショナルキャリブレーショントレーニングによりモデルキャリブレーションを改善する方法を示す。
論文 参考訳(メタデータ) (2024-05-22T18:52:09Z) - The Pitfalls and Promise of Conformal Inference Under Adversarial Attacks [90.52808174102157]
医療画像や自律運転などの安全クリティカルな応用においては、高い敵の堅牢性を維持し、潜在的敵の攻撃から保護することが不可欠である。
敵対的に訓練されたモデルに固有の不確実性に関して、注目すべき知識ギャップが残っている。
本研究では,共形予測(CP)の性能を標準対向攻撃の文脈で検証することにより,ディープラーニングモデルの不確実性について検討する。
論文 参考訳(メタデータ) (2024-05-14T18:05:19Z) - Distribution-Free Finite-Sample Guarantees and Split Conformal
Prediction [0.0]
分割共形予測は、最小分布自由仮定の下で有限サンプル保証を得るための有望な道を表す。
1940年代に開発された分割共形予測と古典的寛容予測との関連性を強調した。
論文 参考訳(メタデータ) (2022-10-26T14:12:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。