論文の概要: Prospective Learning: Learning for a Dynamic Future
- arxiv url: http://arxiv.org/abs/2411.00109v2
- Date: Thu, 30 Jan 2025 14:36:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-31 15:13:23.213584
- Title: Prospective Learning: Learning for a Dynamic Future
- Title(参考訳): 先進的な学習 - 動的未来のための学習
- Authors: Ashwin De Silva, Rahul Ramesh, Rubing Yang, Siyu Yu, Joshua T Vogelstein, Pratik Chaudhari,
- Abstract要約: 現実世界のアプリケーションでは、データの分散とゴールは時間とともに進化します。
データと目標の動的な性質に対処する既存の戦略は、現実世界のパフォーマンスが劣っていることを示している。
「振り返り学習」は、最適仮説が時間とともに変化する状況に合わせて調整される。
- 参考スコア(独自算出の注目度): 30.449933525877537
- License:
- Abstract: In real-world applications, the distribution of the data, and our goals, evolve over time. The prevailing theoretical framework for studying machine learning, namely probably approximately correct (PAC) learning, largely ignores time. As a consequence, existing strategies to address the dynamic nature of data and goals exhibit poor real-world performance. This paper develops a theoretical framework called "Prospective Learning" that is tailored for situations when the optimal hypothesis changes over time. In PAC learning, empirical risk minimization (ERM) is known to be consistent. We develop a learner called Prospective ERM, which returns a sequence of predictors that make predictions on future data. We prove that the risk of prospective ERM converges to the Bayes risk under certain assumptions on the stochastic process generating the data. Prospective ERM, roughly speaking, incorporates time as an input in addition to the data. We show that standard ERM as done in PAC learning, without incorporating time, can result in failure to learn when distributions are dynamic. Numerical experiments illustrate that prospective ERM can learn synthetic and visual recognition problems constructed from MNIST and CIFAR-10. Code at https://github.com/neurodata/prolearn.
- Abstract(参考訳): 現実世界のアプリケーションでは、データの分散と私たちのゴールは、時間とともに進化します。
機械学習を研究するための一般的な理論的枠組み、すなわちほぼ正しい(PAC)学習は、ほとんど時間を無視している。
結果として、データとゴールの動的な性質に対処する既存の戦略は、現実世界のパフォーマンスが劣っていることを示している。
本稿では,最適仮説が時間とともに変化する状況に合わせた「プロスペクティブラーニング」という理論フレームワークを開発する。
PAC学習では、経験的リスク最小化(ERM)は一貫性があることが知られている。
我々は、将来のデータに基づいて予測を行う予測器のシーケンスを返す、Prospective ERMと呼ばれる学習者を開発した。
本研究では, 確率過程において, ベイズリスクに収束する確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率的確率
概して先進的EMMは、データに加えて時間も入力として組み込む。
PAC学習における標準ERMは,時間を組み込まずに,分布が動的である場合の学習に失敗する可能性があることを示す。
数値実験により、将来のEMMは、MNISTとCIFAR-10から構築された合成および視覚的認識の問題を学習できることが示されている。
コードネームはhttps://github.com/neurodata/prolearn。
関連論文リスト
- Time Can Invalidate Algorithmic Recourse [20.78332455864586]
因果関係のレンズを通して問題を提示することにより、時間とともにアルゴリズム的言論の頑健さを考察する。
理論上、実証的に、(堅牢な)因果ARメソッドが時間とともに失敗する可能性があることを実証します。
本稿では,推定器へのアクセスを前提として,時間を考慮した時間的ARのための簡易かつ効果的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-10T15:02:38Z) - Automatic debiasing of neural networks via moment-constrained learning [0.0]
偏差推定器の回帰関数をネーティブに学習し,対象関数のサンプル平均値を取得する。
本稿では,自動脱バイアスの欠点に対処する新しいRR学習手法として,モーメント制約学習を提案する。
論文 参考訳(メタデータ) (2024-09-29T20:56:54Z) - Automating Data Annotation under Strategic Human Agents: Risks and Potential Solutions [10.448052192725168]
本稿では,機械学習モデルがモデル注釈付きサンプルで再訓練される場合の長期的影響について検討する。
モデルが再訓練されるにつれて、エージェントが肯定的な判断を受けやすいことが分かっています。
そこで本研究では,力学を安定化させる改良されたリトレーニングプロセスを提案する。
論文 参考訳(メタデータ) (2024-05-12T13:36:58Z) - Reinforcement Learning from Passive Data via Latent Intentions [86.4969514480008]
我々は、下流RLを加速する機能を学ぶために、受動的データが引き続き使用できることを示す。
我々のアプローチは、意図をモデル化することで受動的データから学習する。
実験では、クロス・エボディメント・ビデオデータやYouTubeビデオなど、さまざまな形式の受動的データから学習できることを実証した。
論文 参考訳(メタデータ) (2023-04-10T17:59:05Z) - Less is More: Rethinking Few-Shot Learning and Recurrent Neural Nets [2.824895388993495]
情報理論AEPに基づく信頼性学習の理論的保証を提供する。
次に、高効率なリカレントニューラルネット(RNN)フレームワークに焦点を当て、少数ショット学習のための縮小エントロピーアルゴリズムを提案する。
実験結果から,学習モデルのサンプル効率,一般化,時間的複雑さを向上する可能性が示唆された。
論文 参考訳(メタデータ) (2022-09-28T17:33:11Z) - Principled Knowledge Extrapolation with GANs [92.62635018136476]
我々は,知識外挿の新たな視点から,対実合成を研究する。
本稿では, 知識外挿問題に対処するために, クローズド形式判別器を用いた対角ゲームが利用可能であることを示す。
提案手法は,多くのシナリオにおいて,エレガントな理論的保証と優れた性能の両方を享受する。
論文 参考訳(メタデータ) (2022-05-21T08:39:42Z) - Continual Predictive Learning from Videos [100.27176974654559]
本稿では,ビデオ予測の文脈において,新たな連続学習問題について検討する。
本稿では,連続予測学習(Continuousal predictive Learning, CPL)アプローチを提案する。
我々はRoboNetとKTHに基づく2つの新しいベンチマークを構築し、異なるタスクが異なる物理ロボット環境や人間の行動に対応するようにした。
論文 参考訳(メタデータ) (2022-04-12T08:32:26Z) - Pre-Trained Models: Past, Present and Future [126.21572378910746]
大規模事前訓練モデル(PTM)は近年大きな成功を収め、人工知能(AI)分野におけるマイルストーンとなった。
知識を巨大なパラメータに格納し、特定のタスクを微調整することで、巨大なパラメータに暗黙的にエンコードされた豊富な知識は、さまざまな下流タスクの恩恵を受けることができる。
AIコミュニティが、モデルをスクラッチから学習するのではなく、下流タスクのバックボーンとしてPTMを採用することは、今、コンセンサスになっている。
論文 参考訳(メタデータ) (2021-06-14T02:40:32Z) - Injecting Knowledge in Data-driven Vehicle Trajectory Predictors [82.91398970736391]
車両軌道予測タスクは、一般的に知識駆動とデータ駆動の2つの視点から取り組まれている。
本稿では,これら2つの視点を効果的に結合する「現実的残留ブロック」 (RRB) の学習を提案する。
提案手法は,残留範囲を限定し,その不確実性を考慮した現実的な予測を行う。
論文 参考訳(メタデータ) (2021-03-08T16:03:09Z) - Value-driven Hindsight Modelling [68.658900923595]
値推定は強化学習(RL)パラダイムの重要な構成要素である。
モデル学習は、観測系列に存在する豊富な遷移構造を利用することができるが、このアプローチは通常、報酬関数に敏感ではない。
この2つの極点の間に位置するRLにおける表現学習のアプローチを開発する。
これにより、タスクに直接関連し、値関数の学習を加速できる、抽出可能な予測ターゲットが提供される。
論文 参考訳(メタデータ) (2020-02-19T18:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。