論文の概要: On the Learnability of Distribution Classes with Adaptive Adversaries
- arxiv url: http://arxiv.org/abs/2509.05137v1
- Date: Fri, 05 Sep 2025 14:28:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.613267
- Title: On the Learnability of Distribution Classes with Adaptive Adversaries
- Title(参考訳): アダプティブ・アダプティブ・アダプティブ・アダプティブ・アダプティブ・アダプティブ・アダプティブ・アダプティブ・アダプティブ・アダプ
- Authors: Tosca Lechner, Alex Bie, Gautam Kamath,
- Abstract要約: 本稿では,適応的相手の存在下での分布クラスの学習可能性について考察する。
加法的適応的敵に対する学習性は、加法的敵に対する学習性よりも厳密な条件であることを示す。
- 参考スコア(独自算出の注目度): 12.539071799697005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the question of learnability of distribution classes in the presence of adaptive adversaries -- that is, adversaries capable of intercepting the samples requested by a learner and applying manipulations with full knowledge of the samples before passing it on to the learner. This stands in contrast to oblivious adversaries, who can only modify the underlying distribution the samples come from but not their i.i.d.\ nature. We formulate a general notion of learnability with respect to adaptive adversaries, taking into account the budget of the adversary. We show that learnability with respect to additive adaptive adversaries is a strictly stronger condition than learnability with respect to additive oblivious adversaries.
- Abstract(参考訳): 本研究では,適応的相手の存在下での分布クラスの学習可能性について考察する。すなわち,学習者が要求したサンプルをインターセプトし,学習者に渡す前に,そのサンプルの知識をフルに活用できる敵について考察する。
これは、サンプルが生み出す分布だけを修正できるが、i.i.d.\の性質を変更できない不愉快な敵とは対照的である。
適応的な敵に対する学習可能性の一般的な概念を、敵の予算を考慮した形で定式化する。
加法的適応的敵に対する学習性は、加法的敵に対する学習性よりも厳密な条件であることを示す。
関連論文リスト
- Distributionally-Constrained Adversaries in Online Learning [7.903539618132857]
より汎用的で柔軟な分布制約のある敵の枠組みを考察し、敵が選択した分布からインスタンスを抽出する。
本稿では,この文脈で学習可能な分布クラスの特性について述べる。
論文 参考訳(メタデータ) (2025-06-12T02:11:10Z) - Adversaries With Incentives: A Strategic Alternative to Adversarial Robustness [11.722685584919757]
敵の訓練は、あらゆる意味で予測性能を損なうことが唯一の目的である敵に対して防御することを目的としている。
対戦相手を,分類者に対して直接取り組むのではなく,単に自身の目標を追求するものとしてモデル化することを提案する。
我々は、相手のインセンティブに関する穏やかな知識がいかに有用であるかを示す一連の実験を行う。
論文 参考訳(メタデータ) (2024-06-17T12:20:59Z) - Protecting Split Learning by Potential Energy Loss [70.81375125791979]
我々は、分割学習の前方埋め込みからのプライバシー漏洩に焦点を当てる。
我々は、前方埋め込みをより「複雑化」させるためのエネルギー損失の可能性を提案する。
論文 参考訳(メタデータ) (2022-10-18T06:21:11Z) - Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。