論文の概要: Distributionally-Constrained Adversaries in Online Learning
- arxiv url: http://arxiv.org/abs/2506.10293v1
- Date: Thu, 12 Jun 2025 02:11:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.530181
- Title: Distributionally-Constrained Adversaries in Online Learning
- Title(参考訳): オンライン学習における分散的制約のある広告主
- Authors: Moïse Blanchard, Samory Kpotufe,
- Abstract要約: より汎用的で柔軟な分布制約のある敵の枠組みを考察し、敵が選択した分布からインスタンスを抽出する。
本稿では,この文脈で学習可能な分布クラスの特性について述べる。
- 参考スコア(独自算出の注目度): 7.903539618132857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been much recent interest in understanding the continuum from adversarial to stochastic settings in online learning, with various frameworks including smoothed settings proposed to bridge this gap. We consider the more general and flexible framework of distributionally constrained adversaries in which instances are drawn from distributions chosen by an adversary within some constrained distribution class [RST11]. Compared to smoothed analysis, we consider general distributional classes which allows for a fine-grained understanding of learning settings between fully stochastic and fully adversarial for which a learner can achieve non-trivial regret. We give a characterization for which distribution classes are learnable in this context against both oblivious and adaptive adversaries, providing insights into the types of interplay between the function class and distributional constraints on adversaries that enable learnability. In particular, our results recover and generalize learnability for known smoothed settings. Further, we show that for several natural function classes including linear classifiers, learning can be achieved without any prior knowledge of the distribution class -- in other words, a learner can simultaneously compete against any constrained adversary within learnable distribution classes.
- Abstract(参考訳): このギャップを埋めるために、スムーズな設定を含む様々なフレームワークが提案されている。
本稿では、ある制約付き分布クラス[RST11]内の敵が選択した分布からインスタンスを抽出する分散制約付き敵のより汎用的で柔軟なフレームワークについて考察する。
円滑な解析と比較して,学習者が非自明な後悔を達成できるような,完全に確率的かつ完全に逆境的な学習設定を詳細に理解することのできる一般分布クラスを考える。
本稿では,この文脈において,難易度と適応度の両方の敵に対して,分布クラスを学習可能な特性を与えるとともに,学習性を実現する敵に対する関数クラス間の相互作用のタイプと分布制約について考察する。
特に、スムーズな設定の学習性を回復し、一般化する。
さらに、線形分類器を含むいくつかの自然関数クラスにおいて、学習は分布クラスに関する事前の知識なしに達成可能であることを示し、言い換えれば、学習者は学習可能な分布クラス内の制限された敵と同時に競合することができる。
関連論文リスト
- Deep Fair Learning: A Unified Framework for Fine-tuning Representations with Sufficient Networks [8.616743904155419]
本研究では,十分な次元削減と深層学習を統合し,公正かつ情報的表現を構築するフレームワークを提案する。
微調整中に新たなペナルティ項を導入することにより、センシティブな属性と学習された表現との間の条件付き独立性を強制する。
提案手法は, 公平性と実用性とのバランスが良好であり, 最先端のベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2025-04-08T22:24:22Z) - Generative Modeling of Class Probability for Multi-Modal Representation Learning [7.5696616045063845]
マルチモーダル理解は、モデルが異なるモーダルから入力を共同で解釈できるようにすることによって、人工知能において重要な役割を担っている。
マルチモーダル表現学習にクラス確率分布を利用する新しいクラスアンカーアライメント手法を提案する。
本手法は,クラスアンカーを各モードのクラス確率分布の生成と調整のプロンプトとして符号化する。
論文 参考訳(メタデータ) (2025-03-21T01:17:44Z) - Towards Distribution-Agnostic Generalized Category Discovery [51.52673017664908]
データ不均衡とオープンエンドの分布は、現実の視覚世界の本質的な特性である。
我々は,BaCon(Self-Balanced Co-Advice contrastive framework)を提案する。
BaConは、対照的な学習ブランチと擬似ラベルブランチで構成され、DA-GCDタスクを解決するためのインタラクティブな監視を提供するために協力して動作する。
論文 参考訳(メタデータ) (2023-10-02T17:39:58Z) - Adversarial Rewards in Universal Learning for Contextual Bandits [32.14208422566497]
本研究では,学習者の報酬が行動や既知の文脈に依存する状況において,学習の限界について検討する。
対人報酬を伴う文脈的包帯に対する楽観的普遍学習は一般に不可能であることを示す。
論文 参考訳(メタデータ) (2023-02-14T16:54:22Z) - Optimal Online Generalized Linear Regression with Stochastic Noise and
Its Application to Heteroscedastic Bandits [88.6139446295537]
一般化線形モデルの設定におけるオンライン一般化線形回帰の問題について検討する。
ラベルノイズに対処するため、古典的追従正規化リーダ(FTRL)アルゴリズムを鋭く解析する。
本稿では,FTRLに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-28T08:25:26Z) - Beyond cross-entropy: learning highly separable feature distributions
for robust and accurate classification [22.806324361016863]
本稿では, 対角的ロバスト性を提供する, ディープロバストなマルチクラス分類器を訓練するための新しい手法を提案する。
提案手法に基づく潜在空間の正則化は,優れた分類精度が得られることを示す。
論文 参考訳(メタデータ) (2020-10-29T11:15:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。