論文の概要: Adversarial Robustness in Two-Stage Learning-to-Defer: Algorithms and Guarantees
- arxiv url: http://arxiv.org/abs/2502.01027v1
- Date: Mon, 03 Feb 2025 03:44:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:04:03.251004
- Title: Adversarial Robustness in Two-Stage Learning-to-Defer: Algorithms and Guarantees
- Title(参考訳): 2段階学習における逆ロバスト性:アルゴリズムと保証
- Authors: Yannis Montreuil, Axel Carlier, Lai Xing Ng, Wei Tsang Ooi,
- Abstract要約: Learning-to-Defer(L2D)は、AIシステムと意思決定者間の最適なタスク割り当てを容易にする。
本稿では, 2段階のL2Dフレームワークにおいて, 対向ロバスト性の最初の包括的解析を行う。
我々はベイズと$(mathcalR,mathcalG)$-consistencyをルーツとする頑健で凸なdeferralアルゴリズムであるSARDを提案する。
- 参考スコア(独自算出の注目度): 3.6787328174619254
- License:
- Abstract: Learning-to-Defer (L2D) facilitates optimal task allocation between AI systems and decision-makers. Despite its potential, we show that current two-stage L2D frameworks are highly vulnerable to adversarial attacks, which can misdirect queries or overwhelm decision agents, significantly degrading system performance. This paper conducts the first comprehensive analysis of adversarial robustness in two-stage L2D frameworks. We introduce two novel attack strategies -- untargeted and targeted -- that exploit inherent structural vulnerabilities in these systems. To mitigate these threats, we propose SARD, a robust, convex, deferral algorithm rooted in Bayes and $(\mathcal{R},\mathcal{G})$-consistency. Our approach guarantees optimal task allocation under adversarial perturbations for all surrogates in the cross-entropy family. Extensive experiments on classification, regression, and multi-task benchmarks validate the robustness of SARD.
- Abstract(参考訳): Learning-to-Defer(L2D)は、AIシステムと意思決定者間の最適なタスク割り当てを容易にする。
その可能性にもかかわらず、現在の2段階のL2Dフレームワークは、クエリをミスダイレクトしたり、決定エージェントを圧倒したり、システム性能を著しく低下させたりできる敵攻撃に対して非常に脆弱であることを示す。
本稿では, 2段階のL2Dフレームワークにおいて, 対向ロバスト性の最初の包括的解析を行う。
これらのシステムに固有の構造的脆弱性を悪用する2つの新しい攻撃戦略を導入します。
これらの脅威を軽減するために、ベイズと$(\mathcal{R},\mathcal{G})$-一貫性を持つ頑健で凸なdeferralアルゴリズムであるSARDを提案する。
提案手法は,クロスエントロピー系における全てのサロゲートに対する対向的摂動下での最適タスク割り当てを保証する。
分類、回帰、マルチタスクベンチマークに関する大規模な実験は、SARDの堅牢性を検証する。
関連論文リスト
- A Two-Stage Learning-to-Defer Approach for Multi-Task Learning [3.4289478404209826]
分類タスクと回帰タスクを共同で扱うマルチタスク学習のための新しい2段階学習フレームワークを提案する。
我々は,分類と回帰が密結合した物体検出,電子健康記録解析の2つの課題に対して,我々の枠組みを検証した。
論文 参考訳(メタデータ) (2024-10-21T07:44:57Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Enhancing Infrared Small Target Detection Robustness with Bi-Level
Adversarial Framework [61.34862133870934]
本稿では,異なる汚職の存在下での検出の堅牢性を促進するために,二段階の対向的枠組みを提案する。
我々の手法は広範囲の汚職で21.96%のIOUを著しく改善し、特に一般ベンチマークで4.97%のIOUを推進している。
論文 参考訳(メタデータ) (2023-09-03T06:35:07Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Towards Adversarial Realism and Robust Learning for IoT Intrusion
Detection and Classification [0.0]
IoT(Internet of Things)は、重大なセキュリティ上の課題に直面している。
敵の攻撃による脅威の増大は、信頼できる防衛戦略の必要性を回復させる。
本研究は、敵のサイバー攻撃事例が現実的であるために必要な制約の種類について述べる。
論文 参考訳(メタデータ) (2023-01-30T18:00:28Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Hidden Cost of Randomized Smoothing [72.93630656906599]
本稿では、現在のランダム化平滑化による副作用を指摘する。
具体的には,1)スムーズな分類器の決定境界が小さくなり,クラスレベルでの精度の相違が生じること,2)学習過程における雑音増強の適用は,一貫性のない学習目的による縮小問題を必ずしも解決しない,という2つの主要なポイントを具体化し,証明する。
論文 参考訳(メタデータ) (2020-03-02T23:37:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。