論文の概要: Prospective Learning: Principled Extrapolation to the Future
- arxiv url: http://arxiv.org/abs/2201.07372v2
- Date: Thu, 13 Jul 2023 09:49:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-14 17:55:01.977550
- Title: Prospective Learning: Principled Extrapolation to the Future
- Title(参考訳): 先進的な学習: 原理的外挿から未来へ
- Authors: Ashwin De Silva, Rahul Ramesh, Lyle Ungar, Marshall Hussain Shuler,
Noah J. Cowan, Michael Platt, Chen Li, Leyla Isik, Seung-Eon Roh, Adam
Charles, Archana Venkataraman, Brian Caffo, Javier J. How, Justus M
Kebschull, John W. Krakauer, Maxim Bichuch, Kaleab Alemayehu Kinfu, Eva
Yezerets, Dinesh Jayaraman, Jong M. Shin, Soledad Villar, Ian Phillips, Carey
E. Priebe, Thomas Hartung, Michael I. Miller, Jayanta Dey, Ningyuan (Teresa)
Huang, Eric Eaton, Ralph Etienne-Cummings, Elizabeth L. Ogburn, Randal Burns,
Onyema Osuagwu, Brett Mensh, Alysson R. Muotri, Julia Brown, Chris White,
Weiwei Yang, Andrei A. Rusu, Timothy Verstynen, Konrad P. Kording, Pratik
Chaudhari, Joshua T. Vogelstein
- Abstract要約: 学習は、過去の経験に基づいて決定ルールを更新し、将来のパフォーマンスが向上するプロセスを発展させます。
伝統的に、機械学習は、未来が分布や対向力学において過去と同一であるという仮定の下でしばしば評価される。
ここでは、学習問題を、部分的に学習可能な動的な未来の概念を中心としたものに再構成する。
予測学習は,(1)現在,自然知能の解決方法に関する十分な説明が不十分な,現実世界の多くの問題を,より正確に特徴づけるものである,と我々は主張する。
- 参考スコア(独自算出の注目度): 45.287871145154135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning is a process which can update decision rules, based on past
experience, such that future performance improves. Traditionally, machine
learning is often evaluated under the assumption that the future will be
identical to the past in distribution or change adversarially. But these
assumptions can be either too optimistic or pessimistic for many problems in
the real world. Real world scenarios evolve over multiple spatiotemporal scales
with partially predictable dynamics. Here we reformulate the learning problem
to one that centers around this idea of dynamic futures that are partially
learnable. We conjecture that certain sequences of tasks are not
retrospectively learnable (in which the data distribution is fixed), but are
prospectively learnable (in which distributions may be dynamic), suggesting
that prospective learning is more difficult in kind than retrospective
learning. We argue that prospective learning more accurately characterizes many
real world problems that (1) currently stymie existing artificial intelligence
solutions and/or (2) lack adequate explanations for how natural intelligences
solve them. Thus, studying prospective learning will lead to deeper insights
and solutions to currently vexing challenges in both natural and artificial
intelligences.
- Abstract(参考訳): 学習は、過去の経験に基づいて意思決定ルールを更新できるプロセスであり、将来のパフォーマンスが向上する。
伝統的に、機械学習はしばしば、未来は分布や変化において過去と同一であると仮定して評価される。
しかし、これらの仮定は現実の多くの問題に対して楽観的すぎるか悲観的すぎる可能性がある。
実世界のシナリオは、部分的に予測可能なダイナミクスを持つ複数の時空間スケールで進化する。
ここでは、部分的に学習可能な動的未来の概念を中心に学習問題を再構成する。
タスクの特定のシーケンスは、振り返りで学習可能ではなく(データ分布が固定されている場合)、確率的に学習可能であり(分布が動的である場合)、振り返り学習よりも予測学習が難しいことを示唆する。
予測学習は,(1)現在存在する人工知能ソリューションを汚し,(2)自然知能の解決方法に関する十分な説明を欠いている現実の問題を,より正確に特徴づけるものである,と我々は主張する。
したがって、先進的な学習を研究することは、自然と人工知能の両方で現在困っている課題に対する深い洞察と解決策をもたらすだろう。
関連論文リスト
- Continual Learning: Applications and the Road Forward [119.03464063873407]
継続的学習は、機械学習モデルが、過去に学んだことを忘れずに知識を蓄積することで、新しいデータを継続的に学習できるようにすることを目的としている。
この研究は、2023年3月のDagtuhl Seminar on Deep Continual Learningで著者らが行った多くの議論の結果である。
論文 参考訳(メタデータ) (2023-11-20T16:40:29Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - A Comprehensive Survey of Continual Learning: Theory, Method and
Application [64.23253420555989]
本稿では,基礎的設定,理論的基礎,代表的方法,実践的応用を橋渡しする継続的学習に関する包括的調査を行う。
連続学習の一般的な目的は、資源効率の文脈において、適切な安定性と塑性のトレードオフと適切なタスク内/タスク内一般化性を保証することであると要約する。
論文 参考訳(メタデータ) (2023-01-31T11:34:56Z) - Bayesian Learning for Dynamic Inference [2.2843885788439793]
いくつかの逐次推定問題では、推定される量の将来値は、その現在の値の推定に依存する。
本研究では,未知量生成モデルがランダムに描画されることを前提として,動的推論のためのベイズ学習問題を定式化する。
我々は、推論損失を最小限に抑えるために、オフラインとオンラインの両方で最適なベイズ学習ルールを導出する。
論文 参考訳(メタデータ) (2022-12-30T19:16:23Z) - Reinforcement Learning in System Identification [0.0]
システム識別は、学習前方モデル、伝達関数、システムダイナミクスなどとも呼ばれるが、科学と工学の両方において長い伝統がある。
ここでは、この問題における強化学習の利用について考察する。
本稿では,この問題が強化学習問題として自然と音にどのように適合するかを詳述し,RLがこのような問題を解決する上で有望な手法であることを実証する実験結果を示す。
論文 参考訳(メタデータ) (2022-12-14T09:20:42Z) - Exploring Bayesian Deep Learning for Urgent Instructor Intervention Need
in MOOC Forums [58.221459787471254]
大規模なオープンオンラインコース(MOOC)は、その柔軟性のおかげで、eラーニングの一般的な選択肢となっている。
多くの学習者とその多様な背景から、リアルタイムサポートの提供は課税されている。
MOOCインストラクターの大量の投稿と高い作業負荷により、インストラクターが介入を必要とするすべての学習者を識別できる可能性は低いです。
本稿では,モンテカルロドロップアウトと変分推論という2つの手法を用いて,学習者によるテキスト投稿のベイジアン深層学習を初めて検討する。
論文 参考訳(メタデータ) (2021-04-26T15:12:13Z) - Knowledge as Invariance -- History and Perspectives of
Knowledge-augmented Machine Learning [69.99522650448213]
機械学習の研究は転換点にある。
研究の関心は、高度にパラメータ化されたモデルのパフォーマンス向上から、非常に具体的なタスクへとシフトしている。
このホワイトペーパーは、機械学習研究におけるこの新興分野の紹介と議論を提供する。
論文 参考訳(メタデータ) (2020-12-21T15:07:19Z) - Applying Deutsch's concept of good explanations to artificial
intelligence and neuroscience -- an initial exploration [0.0]
深層学習におけるドイツの難しい原則と、より形式化された原則とどのように関連しているかを調査します。
私たちは、人間の脳を見ることで、知能でどのように難しい説明が果たす役割を見ます。
論文 参考訳(メタデータ) (2020-12-16T23:23:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。