論文の概要: Learning in a Small/Big World
- arxiv url: http://arxiv.org/abs/2009.11917v8
- Date: Thu, 30 Mar 2023 09:38:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 18:58:13.830643
- Title: Learning in a Small/Big World
- Title(参考訳): 小さな/大きな世界で学ぶ
- Authors: Benson Tsz Kin Leung
- Abstract要約: 本稿では,環境の複雑さが低く高い中小世界の最適学習行動の特徴を,意思決定者の認知能力と比較して検討する。
大世界では、最適学習行動は、単純化、相関無視、持続的過信、不注意学習、モデルの単純化や不特定化といった幅広い文書化された非ベイズ学習行動を示す可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Complexity and limited ability have profound effect on how we learn and make
decisions under uncertainty. Using the theory of finite automaton to model
belief formation, this paper studies the characteristics of optimal learning
behavior in small and big worlds, where the complexity of the environment is
low and high, respectively, relative to the cognitive ability of the decision
maker. Optimal behavior is well approximated by the Bayesian benchmark in very
small world but is more different as the world gets bigger. In addition, in big
worlds, the optimal learning behavior could exhibit a wide range of
well-documented non-Bayesian learning behavior, including the use of
heuristics, correlation neglect, persistent over-confidence, inattentive
learning, and other behaviors of model simplification or misspecification.
These results establish a clear and testable relationship among the prominence
of non-Bayesian learning behavior, complexity, and cognitive ability.
- Abstract(参考訳): 複雑さと能力の制限は、不確実性の下での学習と意思決定に多大な影響を与えます。
本稿では,有限オートマトン理論を用いて,環境の複雑さが低く,かつ,意思決定者の認知能力に比較して高い,小・大世界の最適学習行動の特性について考察する。
最適な振る舞いは、非常に小さな世界のベイズベンチマークによってよく近似されるが、世界が大きくなるにつれてより異なる。
加えて、大世界において、最適な学習行動は、ヒューリスティックスの使用、相関無視、持続的過信、不注意な学習、モデルの単純化や不特定といった幅広い非ベイズ学習行動を示す可能性がある。
これらの結果は、非ベイズ的学習行動、複雑さ、認知能力の卓越性の間に明確で証明可能な関係を確立する。
関連論文リスト
- Predicting and Understanding Human Action Decisions: Insights from Large Language Models and Cognitive Instance-Based Learning [0.0]
大きな言語モデル(LLM)は、様々なタスクにまたがってその能力を実証している。
本稿では,LLMの推論と生成能力を利用して,2つの逐次意思決定タスクにおける人間の行動を予測する。
我々は,LLMの性能を,人間の経験的意思決定を模倣した認知的インスタンスベース学習モデルと比較した。
論文 参考訳(メタデータ) (2024-07-12T14:13:06Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - Intrinsically Motivated Learning of Causal World Models [0.0]
有望な方向は、センサーと環境との相互作用の裏に隠された真の物理的なメカニズムを捉えた世界モデルを構築することである。
環境の因果構造を推定することは、適切な介入データを収集する手段として、適切なチョーセン行動の恩恵を受けることができる。
論文 参考訳(メタデータ) (2022-08-09T16:48:28Z) - Prototype-Anchored Learning for Learning with Imperfect Annotations [83.7763875464011]
不完全な注釈付きデータセットからバイアスのない分類モデルを学ぶことは困難である。
本稿では,様々な学習に基づく分類手法に容易に組み込むことができるプロトタイプ・アンコレッド学習法を提案する。
我々は,PALがクラス不均衡学習および耐雑音学習に与える影響を,合成および実世界のデータセットに関する広範な実験により検証した。
論文 参考訳(メタデータ) (2022-06-23T10:25:37Z) - What Makes Good Contrastive Learning on Small-Scale Wearable-based
Tasks? [59.51457877578138]
本研究では,ウェアラブル型行動認識タスクにおけるコントラスト学習について検討する。
本稿では,PyTorchライブラリのtextttCL-HAR について述べる。
論文 参考訳(メタデータ) (2022-02-12T06:10:15Z) - Contrastive Active Inference [12.361539023886161]
本稿では,エージェントの生成モデル学習における計算負担を低減し,今後の行動計画を行うための,アクティブ推論のための対照的な目的を提案する。
提案手法は,画像に基づくタスクにおいて,確率に基づく能動推論よりも特に優れているが,計算処理が安価で,訓練も容易である。
論文 参考訳(メタデータ) (2021-10-19T16:20:49Z) - Deep Active Learning by Leveraging Training Dynamics [57.95155565319465]
本稿では,学習力学を最大化するためにサンプルを選択する理論駆動型深層能動学習法(Dynamical)を提案する。
動的学習は、他のベースラインを一貫して上回るだけでなく、大規模なディープラーニングモデルでもうまくスケール可能であることを示す。
論文 参考訳(メタデータ) (2021-10-16T16:51:05Z) - Learning Not to Learn: Nature versus Nurture in Silico [0.0]
私たちはメタラーニング(あるいは'学習する')というフレームワークを使って、このような適応的な戦略を学ぶのが有益であるときに答えます。
生態的不確実性、タスクの複雑さ、エージェントの寿命の相互作用は、メタ学習されたアモータライズされたベイズ推定に決定的な影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2020-10-09T09:47:40Z) - Importance Weighted Policy Learning and Adaptation [89.46467771037054]
政治外学習の最近の進歩の上に構築された,概念的にシンプルで,汎用的で,モジュール的な補完的アプローチについて検討する。
このフレームワークは確率論的推論文学のアイデアにインスパイアされ、堅牢な非政治学習と事前の行動を組み合わせる。
提案手法は,メタ強化学習ベースラインと比較して,ホールドアウトタスクにおける競合適応性能を実現し,複雑なスパース・リワードシナリオにスケールすることができる。
論文 参考訳(メタデータ) (2020-09-10T14:16:58Z) - The large learning rate phase of deep learning: the catapult mechanism [50.23041928811575]
問題解決可能なトレーニングダイナミクスを備えたニューラルネットワークのクラスを提示する。
現実的なディープラーニング環境において,モデルの予測とトレーニングのダイナミクスとの間には,よい一致がある。
我々の結果は、異なる学習率でトレーニングされたモデルの特性に光を当てたと信じています。
論文 参考訳(メタデータ) (2020-03-04T17:52:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。