論文の概要: Lower Bounds on Adversarial Robustness for Multiclass Classification with General Loss Functions
- arxiv url: http://arxiv.org/abs/2510.01969v1
- Date: Thu, 02 Oct 2025 12:42:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:21.12917
- Title: Lower Bounds on Adversarial Robustness for Multiclass Classification with General Loss Functions
- Title(参考訳): 一般損失関数を用いた多クラス分類における対向ロバスト性に関する下界
- Authors: Camilo Andrés García Trillos, Nicolás García Trillos,
- Abstract要約: 任意の損失関数の下での多クラス設定における逆ロバストな分類について考察する。
学習者に依存しない頑健なリスク問題の二重化と偏心化を導出する。
- 参考スコア(独自算出の注目度): 4.562056072136493
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider adversarially robust classification in a multiclass setting under arbitrary loss functions and derive dual and barycentric reformulations of the corresponding learner-agnostic robust risk minimization problem. We provide explicit characterizations for important cases such as the cross-entropy loss, loss functions with a power form, and the quadratic loss, extending in this way available results for the 0-1 loss. These reformulations enable efficient computation of sharp lower bounds for adversarial risks and facilitate the design of robust classifiers beyond the 0-1 loss setting. Our paper uncovers interesting connections between adversarial robustness, $\alpha$-fair packing problems, and generalized barycenter problems for arbitrary positive measures where Kullback-Leibler and Tsallis entropies are used as penalties. Our theoretical results are accompanied with illustrative numerical experiments where we obtain tighter lower bounds for adversarial risks with the cross-entropy loss function.
- Abstract(参考訳): 任意の損失関数の下でのマルチクラス環境での逆ロバストな分類と、対応する学習者に依存しないロバストなリスク最小化問題の二重化と偏心化を導出する。
我々は, クロスエントロピー損失, パワーフォームを有する損失関数, 二次損失などの重要なケースに対して, 明確な特徴を与える。
これらの改定は、敵のリスクに対する鋭い下限の効率的な計算を可能にし、0-1損失設定を超えてロバストな分類器の設計を容易にする。
本稿は,Kulback-Leibler と Tsallis のエントロピーをペナルティとして用いる任意の正の測度に対して,対向ロバスト性,$\alpha$-fair packing問題,および一般化されたバリセンタ問題の間の興味深い関係を明らかにする。
理論的には, クロスエントロピー損失関数による対角的リスクに対して, より厳密な下界を求める実証的な数値実験を伴って行った。
関連論文リスト
- Rectifying Regression in Reinforcement Learning [51.28909745713678]
平均絶対誤差は,学習方針の最適度差を制御するために,従来の平均二乗誤差よりもよい予測目標であることを示す。
異なる損失関数は、これらの異なる回帰目標とよりよく一致していることを示す。
論文 参考訳(メタデータ) (2025-10-01T13:32:07Z) - Risk-Averse Reinforcement Learning with Itakura-Saito Loss [63.620958078179356]
リスク回避エージェントはリスクを最小限に抑えるポリシーを選択し、時には期待される価値を犠牲にする。
状態値と行動値の関数を学習するために,板倉-斎藤偏差に基づく数値的に安定かつ数学的に損失関数を導入する。
実験セクションでは、既知の解析解を含む複数のシナリオを探索し、その損失関数が代替よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-05-22T17:18:07Z) - LEARN: An Invex Loss for Outlier Oblivious Robust Online Optimization [56.67706781191521]
敵は、学習者に未知の任意の数kの損失関数を破損させることで、外れ値を導入することができる。
我々は,任意の数kで損失関数を破損させることで,敵が外乱を発生させることができる,頑健なオンラインラウンド最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-12T17:08:31Z) - Non-Asymptotic Bounds for Adversarial Excess Risk under Misspecified
Models [9.65010022854885]
本研究では,ある平滑な条件下での分布的敵攻撃によって引き起こされるリスクに,敵対的リスクが等価であることを示す。
対向推定器の一般化性能を評価するため, 対向過大リスクについて検討した。
論文 参考訳(メタデータ) (2023-09-02T00:51:19Z) - Expressive Losses for Verified Robustness via Convex Combinations [67.54357965665676]
本研究では, 過近似係数と異なる表現的損失に対する性能分布の関係について検討した。
表現性が不可欠である一方で、最悪の場合の損失のより良い近似は、必ずしも優れた堅牢性-正確性トレードオフに結びついていないことを示す。
論文 参考訳(メタデータ) (2023-05-23T12:20:29Z) - General Loss Functions Lead to (Approximate) Interpolation in High Dimensions [5.653716495767272]
我々は、バイナリとマルチクラスの設定にまたがる凸損失の一般的なファミリーに適用可能な統一されたフレームワークを提供する。
具体的には、暗黙バイアスが高次元の最小ノルムに近似されている(正確には同値ではない)ことを示す。
論文 参考訳(メタデータ) (2023-03-13T21:23:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。