論文の概要: Conservative classifiers do consistently well with improving agents: characterizing statistical and online learning
- arxiv url: http://arxiv.org/abs/2506.05252v1
- Date: Thu, 05 Jun 2025 17:13:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.842225
- Title: Conservative classifiers do consistently well with improving agents: characterizing statistical and online learning
- Title(参考訳): 保守的分類器は改善エージェントと一貫してうまく連携する:統計的およびオンライン学習の特徴付け
- Authors: Dravyansh Sharma, Alec Sun,
- Abstract要約: 複数の新しい軸にまたがる改良を施したいわゆる学習性の特徴付けを行う。
より困難な環境での学習方法を示し、よく研究された有界雑音モデルの下で、より低い一般化誤差を達成する。
我々は、適切な学習と不適切な学習の両方のために、Attiasらによって提起されたオープンな質問を解決する。
- 参考スコア(独自算出の注目度): 7.857499581522375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning is now ubiquitous in societal decision-making, for example in evaluating job candidates or loan applications, and it is increasingly important to take into account how classified agents will react to the learning algorithms. The majority of recent literature on strategic classification has focused on reducing and countering deceptive behaviors by the classified agents, but recent work of Attias et al. identifies surprising properties of learnability when the agents genuinely improve in order to attain the desirable classification, such as smaller generalization error than standard PAC-learning. In this paper we characterize so-called learnability with improvements across multiple new axes. We introduce an asymmetric variant of minimally consistent concept classes and use it to provide an exact characterization of proper learning with improvements in the realizable setting. While prior work studies learnability only under general, arbitrary agent improvement regions, we give positive results for more natural Euclidean ball improvement sets. In particular, we characterize improper learning under a mild generative assumption on the data distribution. We further show how to learn in more challenging settings, achieving lower generalization error under well-studied bounded noise models and obtaining mistake bounds in realizable and agnostic online learning. We resolve open questions posed by Attias et al. for both proper and improper learning.
- Abstract(参考訳): 機械学習は、例えば求職者やローンアプリケーションの評価において、社会的な意思決定において、今やユビキタスであり、分類されたエージェントが学習アルゴリズムにどのように反応するかを考慮することがますます重要になっている。
戦略分類に関する最近の文献の多くは、分類されたエージェントによる偽装行動の低減と対策に重点を置いているが、Attias et alの最近の研究は、標準的なPAC学習よりもより少ない一般化誤差などの望ましい分類を達成するために、エージェントが真に改善する際の学習可能性の驚くべき特性を明らかにしている。
本稿では,複数の新軸にまたがるいわゆる学習可能性について述べる。
最小一貫した概念クラスの非対称な変種を導入し、それを用いて適切な学習を正確に評価し、実現可能な設定を改善する。
先行研究は一般に任意のエージェント改善領域下でのみ学習可能であるが、より自然なユークリッド球改善セットに対して肯定的な結果を与える。
特に、データ分布の軽度な生成仮定の下で不適切な学習を特徴付ける。
さらに、より困難な環境での学習方法、よく研究された有界雑音モデル下での一般化誤差の低減、そして現実的で不可知的なオンライン学習における誤り境界の獲得について述べる。
適切な学習と不適切な学習の両方について、Attiasらによるオープンな質問を解決する。
関連論文リスト
- Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - Learning Confidence Bounds for Classification with Imbalanced Data [42.690254618937196]
本稿では,学習理論と集中不等式を利用して従来のソリューションの欠点を克服する新しい枠組みを提案する。
本手法は, クラスごとに異なる不均衡度に効果的に適応できるため, より堅牢で信頼性の高い分類結果が得られる。
論文 参考訳(メタデータ) (2024-07-16T16:02:27Z) - Bayesian Strategic Classification [11.439576371711711]
戦略分類における学習者による部分的情報公開の研究について検討する。
エージェントの操作能力を高めつつも,そのような部分的な情報公開が学習者の正確さにどのように寄与するかを示す。
論文 参考訳(メタデータ) (2024-02-13T19:51:49Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Towards Diverse Evaluation of Class Incremental Learning: A Representation Learning Perspective [67.45111837188685]
クラスインクリメンタル学習(CIL)アルゴリズムは、インクリメンタルに到着したデータから新しいオブジェクトクラスを継続的に学習することを目的としている。
表現学習における様々な評価プロトコルを用いて,CILアルゴリズムによって訓練されたニューラルネットワークモデルを実験的に解析する。
論文 参考訳(メタデータ) (2022-06-16T11:44:11Z) - New Insights on Reducing Abrupt Representation Change in Online
Continual Learning [69.05515249097208]
我々は、以前に観測されていないクラスが入ってくるデータストリームに現れるときに発生する観測データの表現の変化に焦点を当てる。
Experience Replayを適用すると、新たに追加されたクラスの表現が以前のクラスと大幅に重複することを示します。
本稿では,新しいクラスに対応するために,学習した表現を劇的な適応から保護することで,この問題を緩和する手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T01:37:00Z) - Agree to Disagree: Diversity through Disagreement for Better
Transferability [54.308327969778155]
本稿では,D-BAT(Diversity-By-dis-Agreement Training)を提案する。
我々は、D-BATが一般化された相違の概念から自然に現れることを示す。
論文 参考訳(メタデータ) (2022-02-09T12:03:02Z) - Learning from Heterogeneous Data Based on Social Interactions over
Graphs [58.34060409467834]
本研究では,個別のエージェントが異なる次元のストリーミング特徴を観察しながら分類問題の解決を目指す分散アーキテクチャを提案する。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
論文 参考訳(メタデータ) (2021-12-17T12:47:18Z) - Essentials for Class Incremental Learning [43.306374557919646]
CIFAR-100とImageNetのクラスインクリメンタルな学習結果は、アプローチをシンプルに保ちながら、最先端の成果を大きなマージンで改善します。
論文 参考訳(メタデータ) (2021-02-18T18:01:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。