論文の概要: The Relativity of Induction
- arxiv url: http://arxiv.org/abs/2009.10613v1
- Date: Tue, 22 Sep 2020 15:17:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 22:33:13.438006
- Title: The Relativity of Induction
- Title(参考訳): 誘導の相対性
- Authors: Larry Muhlstein
- Abstract要約: オッカムのカミソリとパーシモニーの原理は、地上学習には不十分であることを示す。
我々は、学習の本質とダイナミクスに関するより明確な洞察をもたらす一連の相対論的原則を導出し、実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lately there has been a lot of discussion about why deep learning algorithms
perform better than we would theoretically suspect. To get insight into this
question, it helps to improve our understanding of how learning works. We
explore the core problem of generalization and show that long-accepted Occam's
razor and parsimony principles are insufficient to ground learning. Instead, we
derive and demonstrate a set of relativistic principles that yield clearer
insight into the nature and dynamics of learning. We show that concepts of
simplicity are fundamentally contingent, that all learning operates relative to
an initial guess, and that generalization cannot be measured or strongly
inferred, but that it can be expected given enough observation. Using these
principles, we reconstruct our understanding in terms of distributed learning
systems whose components inherit beliefs and update them. We then apply this
perspective to elucidate the nature of some real world inductive processes
including deep learning.
- Abstract(参考訳): 近年、ディープラーニングアルゴリズムが理論的に疑わしいよりも優れている理由が議論されている。
この質問に対する洞察を得るためには、学習の仕組みを理解するのに役立つ。
一般化の核となる問題を調査し,occamのカミソリとパルシモニーの原則が基礎学習に不十分であることを示す。
その代わりに、学習の本質とダイナミクスについてより明確な洞察を与える一連の相対論的原則を導出し、実証する。
単純さの概念は基本的に連続であり、すべての学習は初期推測と相対的に作用し、一般化は測定や強い推論はできないが十分な観察が期待できることを示す。
これらの原則を用いて、コンポーネントが信念を継承する分散学習システムの観点から理解を再構築し、更新する。
そして、この視点を適用して、ディープラーニングを含む現実世界の帰納的プロセスの性質を解明します。
関連論文リスト
- Chain-of-Knowledge: Integrating Knowledge Reasoning into Large Language Models by Learning from Knowledge Graphs [55.317267269115845]
Chain-of-Knowledge (CoK)は知識推論のための包括的なフレームワークである。
CoKにはデータセット構築とモデル学習の両方のための方法論が含まれている。
KnowReasonで広範な実験を行う。
論文 参考訳(メタデータ) (2024-06-30T10:49:32Z) - What's in an embedding? Would a rose by any embedding smell as sweet? [0.0]
大規模言語モデル(LLM)は、真の「理解」と知識を「理解」する能力に欠けるとしてしばしば批判される。
我々は, LLM が「幾何学的」な経験的「下地」を発達させ, NLP の様々な応用に適していると考えられることを示唆する。
これらの制限を克服するために、LLMはシンボリックAI要素を含む知識の「代数的」表現と統合されるべきである。
論文 参考訳(メタデータ) (2024-06-11T01:10:40Z) - Learning principle and mathematical realization of the learning
mechanism in the brain [0.0]
我々はこれを学習原理と呼び、全ての学習は入力データの確率を推定するのと等価である。
従来の教師付き学習は条件付き確率の推定に等価であり,教師付き学習をより効果的かつ一般化させることに成功した。
微分を用いた推定確率の値の定義法を提案し,事前知識を使わずに任意のデータセット上で教師なし学習を行うことを示す。
論文 参考訳(メタデータ) (2023-11-22T12:08:01Z) - A Definition of Open-Ended Learning Problems for Goal-Conditioned Agents [18.2920082469313]
オープンエンドラーニングは、一般的に、多様な性質の集合を含む複合概念として考えられている。
我々は、エージェントがゴール駆動スキルのレパートリーを増大させることが可能な、オープンエンドの目標条件強化学習問題のサブセットに焦点を当てる。
論文 参考訳(メタデータ) (2023-11-01T07:37:27Z) - Investigating Forgetting in Pre-Trained Representations Through
Continual Learning [51.30807066570425]
事前学習した言語モデルの汎用性に及ぼす表現忘れの影響について検討する。
様々な事前学習されたLMで一般化が破壊され,構文的・意味的知識は連続学習によって忘れられることがわかった。
論文 参考訳(メタデータ) (2023-05-10T08:27:59Z) - Learning by Applying: A General Framework for Mathematical Reasoning via
Enhancing Explicit Knowledge Learning [47.96987739801807]
本稿では,既存のモデル(バックボーン)を明示的な知識学習によって原則的に拡張する枠組みを提案する。
LeApでは,新しい問題知識表現パラダイムで知識学習を行う。
LeApはすべてのバックボーンのパフォーマンスを改善し、正確な知識を習得し、より解釈可能な推論プロセスを実現する。
論文 参考訳(メタデータ) (2023-02-11T15:15:41Z) - A Comprehensive Survey of Continual Learning: Theory, Method and
Application [64.23253420555989]
本稿では,基礎的設定,理論的基礎,代表的方法,実践的応用を橋渡しする継続的学習に関する包括的調査を行う。
連続学習の一般的な目的は、資源効率の文脈において、適切な安定性と塑性のトレードオフと適切なタスク内/タスク内一般化性を保証することであると要約する。
論文 参考訳(メタデータ) (2023-01-31T11:34:56Z) - HALMA: Humanlike Abstraction Learning Meets Affordance in Rapid Problem
Solving [104.79156980475686]
人間は自然主義的タスクの構造に応じて構成的および因果的抽象化、つまり知識を学ぶ。
エージェントがその知識をどのように表現するかには、知覚、概念、アルゴリズムの3段階の一般化がある、と我々は主張する。
このベンチマークは、ビジュアルコンセプト開発と迅速な問題解決のための新しいタスクドメイン、HALMAを中心にしています。
論文 参考訳(メタデータ) (2021-02-22T20:37:01Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Revisit Systematic Generalization via Meaningful Learning [15.90288956294373]
最近の研究は、ニューラルネットワークはそのような認知能力に本質的に効果がないように見えると主張している。
新しい概念と古い概念のセマンティックリンクを条件としたシーケンス・ツー・シーケンス・モデルの合成スキルを再評価する。
論文 参考訳(メタデータ) (2020-03-14T15:27:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。