論文の概要: Towards Calibrated Losses for Adversarial Robust Reject Option Classification
- arxiv url: http://arxiv.org/abs/2410.10736v1
- Date: Mon, 14 Oct 2024 17:17:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-29 19:55:21.228974
- Title: Towards Calibrated Losses for Adversarial Robust Reject Option Classification
- Title(参考訳): 逆ロバスト・リジェクション・オプション分類のための校正損失に向けて
- Authors: Vrund Shah, Tejas Chaudhari, Naresh Manwani,
- Abstract要約: 本稿では,"Adrial Robust Reject Option"設定でキャリブレーションされたサロゲートのキャラクタリゼーションと設計を目的とした。
任意のサロゲートが$(ell_dgamma,mathcalH_textrmlin)$-キャリブレーションされるような完全なキャラクタリゼーション結果を提供する。
- 参考スコア(独自算出の注目度): 3.263508275825069
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robustness towards adversarial attacks is a vital property for classifiers in several applications such as autonomous driving, medical diagnosis, etc. Also, in such scenarios, where the cost of misclassification is very high, knowing when to abstain from prediction becomes crucial. A natural question is which surrogates can be used to ensure learning in scenarios where the input points are adversarially perturbed and the classifier can abstain from prediction? This paper aims to characterize and design surrogates calibrated in "Adversarial Robust Reject Option" setting. First, we propose an adversarial robust reject option loss $\ell_{d}^{\gamma}$ and analyze it for the hypothesis set of linear classifiers ($\mathcal{H}_{\textrm{lin}}$). Next, we provide a complete characterization result for any surrogate to be $(\ell_{d}^{\gamma},\mathcal{H}_{\textrm{lin}})$- calibrated. To demonstrate the difficulty in designing surrogates to $\ell_{d}^{\gamma}$, we show negative calibration results for convex surrogates and quasi-concave conditional risk cases (these gave positive calibration in adversarial setting without reject option). We also empirically argue that Shifted Double Ramp Loss (DRL) and Shifted Double Sigmoid Loss (DSL) satisfy the calibration conditions. Finally, we demonstrate the robustness of shifted DRL and shifted DSL against adversarial perturbations on a synthetically generated dataset.
- Abstract(参考訳): 対人攻撃に対するロバスト性は、自律運転や診断などのいくつかの応用において、分類器にとって重要な性質である。
また、このようなシナリオでは、誤分類のコストが非常に高く、いつ予測を控えるかを知ることが重要である。
自然な疑問は、どのサロゲートを使って、入力ポイントが逆向きに摂動し、分類器が予測を妨げうるシナリオでの学習を確実にすることができるかということです。
本稿では,"Adversarial Robust Reject Option"設定でキャリブレーションされたサロゲートのキャラクタリゼーションと設計を行う。
まず,線形分類器の仮説集合 (\mathcal{H}_{\textrm{lin}}$) に対して,正反対の頑健な拒絶オプション損失 $\ell_{d}^{\gamma}$ を提案し,解析する。
次に、任意のサロゲートが $(\ell_{d}^{\gamma},\mathcal{H}_{\textrm{lin}})$- となるような完全な特徴づけ結果を与える。
共役を$\ell_{d}^{\gamma}$に設計することの難しさを示すために、凸共役と準凸共役条件付きリスクケースの負の校正結果を示す(これらは拒否オプションのない対向的な設定で正の校正を行った)。
また、シフト二重ランプ損失(DRL)とシフト二重シグモノイド損失(DSL)が校正条件を満たすことを実証的に論じる。
最後に, 合成されたデータセット上での逆方向の摂動に対する移動DRLとシフトDSLの堅牢性を示す。
関連論文リスト
- Indiscriminate Disruption of Conditional Inference on Multivariate Gaussians [60.22542847840578]
敵対的機械学習の進歩にもかかわらず、敵対者の存在下でのガウスモデルに対する推論は特に過小評価されている。
我々は,意思決定者の条件推論とその後の行動の妨害を希望する自己関心のある攻撃者について,一組の明らかな変数を乱すことで検討する。
検出を避けるため、攻撃者は、破損した証拠の密度によって可否が決定される場合に、攻撃が可否を示すことを望んでいる。
論文 参考訳(メタデータ) (2024-11-21T17:46:55Z) - Unintentional Unalignment: Likelihood Displacement in Direct Preference Optimization [60.176008034221404]
直接選好最適化(DPO)とその変種は、言語モデルと人間の選好の整合にますます利用されている。
以前の研究では、トレーニング中に好まれる反応の可能性が減少する傾向が見られた。
確率変位は破滅的になりうることを示し、確率質量を好ましくない反応から反対の意味の反応へとシフトさせる。
論文 参考訳(メタデータ) (2024-10-11T14:22:44Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Minimum-Risk Recalibration of Classifiers [9.31067660373791]
平均二乗誤差分解の枠組みにおいて,最小リスク再校正の概念を導入する。
校正分類器の転送には,スクラッチから再校正するのに比べて,ターゲットサンプルが著しく少ないことが示されている。
論文 参考訳(メタデータ) (2023-05-18T11:27:02Z) - Decision-Making under Miscalibration [14.762226638396209]
MLベースの予測は、個人について連続的な決定を伝えるために使用される。
予想される$alpha$の誤校正を前提に、最悪の場合の後悔を最小限に抑えるしきい値である$j$を使うことを提案する。
予測校正誤差と最大校正誤差の両方を用いて誤校正が測定された場合、$j$の閉形式式を提供する。
実データに関する理論的知見を検証し,j$を用いた意思決定が臨床的有用性を改善する自然な事例があることを実証した。
論文 参考訳(メタデータ) (2022-03-18T10:44:11Z) - Calibration and Consistency of Adversarial Surrogate Losses [46.04004505351902]
adrialversa robustnessは、アプリケーションにおける分類器のますます重要な特性である。
しかし、どの代理損失を使うべきで、いつ理論的保証から利益を得るのか?
本稿では, H-calibration と H-consistency of adversarial surrogate loss の詳細な分析を含む, この問題の広範な研究について述べる。
論文 参考訳(メタデータ) (2021-04-19T21:58:52Z) - Robust Classification Under $\ell_0$ Attack for the Gaussian Mixture
Model [39.414875342234204]
フィルタとトランケーションの2つの主要モジュールを持つFilTrunと呼ばれる新しい分類アルゴリズムを開発した。
敵対的摂動の効果が完全に中和できるかどうかを判断する敵対的予算の段階遷移など、興味深い行動を示すいくつかの例を議論する。
論文 参考訳(メタデータ) (2021-04-05T23:31:25Z) - Almost Tight L0-norm Certified Robustness of Top-k Predictions against
Adversarial Perturbations [78.23408201652984]
トップk予測は、マシンラーニング・アズ・ア・サービス、レコメンダ・システム、Web検索など、多くの現実世界のアプリケーションで使用されている。
我々の研究はランダム化平滑化に基づいており、入力をランダム化することで、証明可能なロバストな分類器を構築する。
例えば、攻撃者がテスト画像の5ピクセルを任意に摂動できる場合に、ImageNet上で69.2%の認定トップ3精度を達成する分類器を構築することができる。
論文 参考訳(メタデータ) (2020-11-15T21:34:44Z) - Provable tradeoffs in adversarially robust classification [96.48180210364893]
我々は、ロバストなイソペリメトリに関する確率論の最近のブレークスルーを含む、新しいツールを開発し、活用する。
この結果から,データの不均衡時に増加する標準精度とロバスト精度の基本的なトレードオフが明らかになった。
論文 参考訳(メタデータ) (2020-06-09T09:58:19Z) - Calibrated Surrogate Losses for Adversarially Robust Classification [92.37268323142307]
線形モデルに制限された場合の逆0-1損失に対して凸代理損失は考慮されないことを示す。
また,Massartの雑音条件を満たす場合,対向条件下では凸損失も校正可能であることを示す。
論文 参考訳(メタデータ) (2020-05-28T02:40:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。