論文の概要: Neural Meta-Symbolic Reasoning and Learning
- arxiv url: http://arxiv.org/abs/2211.11650v2
- Date: Fri, 15 Dec 2023 21:19:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 21:17:10.181757
- Title: Neural Meta-Symbolic Reasoning and Learning
- Title(参考訳): ニューラルメタシンボリック推論と学習
- Authors: Zihan Ye, Hikaru Shindo, Devendra Singh Dhami, Kristian Kersting
- Abstract要約: 推論と学習のための最初のニューラルメタシンボリックシステム(NEMESYS)を提案する。
異なるメタプログラミングにより、NEMESYSは自然にいくつかのタスクを推論し、効率的に学習することができる。
実験では,NEMESYSがメタレベルプログラムに適応することで,様々なタスクを解くことができることを示した。
- 参考スコア(独自算出の注目度): 26.23720203915262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural learning uses an increasing amount of computation and data to
solve very specific problems. By stark contrast, human minds solve a wide range
of problems using a fixed amount of computation and limited experience. One
ability that seems crucial to this kind of general intelligence is
meta-reasoning, i.e., our ability to reason about reasoning. To make deep
learning do more from less, we propose the first neural meta-symbolic system
(NEMESYS) for reasoning and learning: meta programming using differentiable
forward-chaining reasoning in first-order logic. Differentiable meta
programming naturally allows NEMESYS to reason and learn several tasks
efficiently. This is different from performing object-level deep reasoning and
learning, which refers in some way to entities external to the system. In
contrast, NEMESYS enables self-introspection, lifting from object- to
meta-level reasoning and vice versa. In our extensive experiments, we
demonstrate that NEMESYS can solve different kinds of tasks by adapting the
meta-level programs without modifying the internal reasoning system. Moreover,
we show that NEMESYS can learn meta-level programs given examples. This is
difficult, if not impossible, for standard differentiable logic programming
- Abstract(参考訳): ディープラーニングは、計算量の増加とデータを使用して、非常に具体的な問題を解決する。
対照的に、人間の心は一定量の計算と限られた経験を用いて幅広い問題を解決する。
この種の一般的な知性にとって不可欠と思われる能力の一つは、メタリゾナリング、すなわち推論を推論する能力である。
深層学習をより少なくするために,一階述語論理における微分可能前方鎖推論を用いたメタプログラミングという,推論と学習のための最初のニューラルメタシンボリックシステム(NEMESYS)を提案する。
異なるメタプログラミングにより、NEMESYSはいくつかのタスクを効率的に推論し学習することができる。
これは、何らかの方法でシステム外部のエンティティを参照する、オブジェクト指向の深い推論と学習の実行とは異なる。
対照的に、nemesysは自己イントロスペクションを可能にし、オブジェクトからメタレベルの推論を持ち上げます。
我々は,NEMESYSが内部推論システムを変更することなく,メタレベルのプログラムを適応させることにより,様々なタスクを解くことができることを示した。
さらに,NEMESYSは,実例からメタレベルのプログラムを学習できることを示す。
これは標準的な微分可能論理プログラミングでは難しいが不可能ではない
関連論文リスト
- Reasoning with Large Language Models, a Survey [2.831296564800826]
本稿では,LSMによるプロンプトベース推論の急速に進展する分野について概説する。
我々の分類学は、多段階推論の生成、評価、制御の異なる方法を特定します。
我々は, 自己改善, 自己回帰, 推論過程のいくつかのメタ能力が, プロンプトの司法的利用によって可能であることを発見した。
論文 参考訳(メタデータ) (2024-07-16T08:49:35Z) - Smart Vision-Language Reasoners [0.0]
視覚言語モデル(VLM)を推論として検討する。
抽象化を形成する能力は、数学的推論、問題解決、その他のMath AIタスクの根底にある。
SMARTタスクで与えられた抽象概念を8軸のメタ推論と問題解決のスキルとして採用する。
論文 参考訳(メタデータ) (2024-07-05T01:47:21Z) - Improving Complex Reasoning over Knowledge Graph with Logic-Aware Curriculum Tuning [89.89857766491475]
大規模言語モデル(LLM)に基づくKG上の複雑な推論スキーマを提案する。
任意の一階論理クエリを二分木分解により拡張し、LLMの推論能力を刺激する。
広く使われているデータセットに対する実験では、LACTは高度な手法よりも大幅に改善されている(平均+5.5% MRRスコア)。
論文 参考訳(メタデータ) (2024-05-02T18:12:08Z) - Democratizing Reasoning Ability: Tailored Learning from Large Language
Model [97.4921006089966]
そこで我々は,そのような推論能力をより小さなLMに蒸留する,適切な学習手法を提案する。
対話型多ラウンド学習パラダイムを構築することにより,理科教員としてのLLMの可能性を活用する。
より小さなLMの推論可能性を活用するために,学生が自作ミスから学習する動機付けを目的とした自己回帰学習を提案する。
論文 参考訳(メタデータ) (2023-10-20T07:50:10Z) - Memory-Augmented Theory of Mind Network [59.9781556714202]
社会的推論は、心の理論(ToM)の能力を必要とする。
ToMに対する最近の機械学習アプローチは、観察者が過去を読み、他のエージェントの振る舞いを提示するように訓練できることを実証している。
我々は,新たなニューラルメモリ機構を組み込んで符号化し,階層的な注意を払って他者に関する情報を選択的に検索することで,課題に対処する。
この結果、ToMMYは心的プロセスについての仮定をほとんど行わずに理性を学ぶマインドモデルである。
論文 参考訳(メタデータ) (2023-01-17T14:48:58Z) - Eliminating Meta Optimization Through Self-Referential Meta Learning [5.584060970507506]
明示的なメタ最適化を必要とせずに自己修正を行う自己参照メタ学習システムについて検討する。
ニューラルネットワークは、帯域幅と古典的な制御タスクを解決するために自己修正を行い、自己修正を改善し、学習方法を学ぶ。
論文 参考訳(メタデータ) (2022-12-29T17:53:40Z) - A Survey of Deep Learning for Mathematical Reasoning [71.88150173381153]
我々は過去10年間の数学的推論とディープラーニングの交差点における重要なタスク、データセット、方法についてレビューする。
大規模ニューラルネットワークモデルの最近の進歩は、新しいベンチマークと、数学的推論にディープラーニングを使用する機会を開放している。
論文 参考訳(メタデータ) (2022-12-20T18:46:16Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - Towards Benchmarking Explainable Artificial Intelligence Methods [0.0]
我々は、ニューラルネットワークによって推進される決定を説明する方法から、科学理論の哲学を、期待できるもの、期待できないものを明らかにすることを目的として分析レンズとして利用する。
ケーススタディにより、動物とヘッドギアの2つの常在領域における説明可能性法の性能の選択について検討した。
これらの手法の有用性は、人間のドメイン知識と、理解し、一般化し、理性に頼っている、と私たちはうなずく。
論文 参考訳(メタデータ) (2022-08-25T14:28:30Z) - Differentiable Logic Machines [38.21461039738474]
微分可能論理マシン(DLM)と呼ばれる新しいニューラル論理アーキテクチャを提案する。
DLMは帰納論理プログラミング(ILP)と強化学習(RL)の両方の問題を解くことができる。
解釈可能な解を必要としないRL問題では、DLMは他の解釈不可能なニューラル論理的RLアプローチよりも優れている。
論文 参考訳(メタデータ) (2021-02-23T07:31:52Z) - Dark, Beyond Deep: A Paradigm Shift to Cognitive AI with Humanlike
Common Sense [142.53911271465344]
我々は、次世代のAIは、新しいタスクを解決するために、人間のような「暗黒」の常識を取り入れなければならないと論じている。
我々は、人間のような常識を持つ認知AIの5つの中核領域として、機能、物理学、意図、因果性、実用性(FPICU)を識別する。
論文 参考訳(メタデータ) (2020-04-20T04:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。