論文の概要: Differentiable Meta logical Programming
- arxiv url: http://arxiv.org/abs/2211.11650v1
- Date: Mon, 21 Nov 2022 17:12:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 19:48:53.807921
- Title: Differentiable Meta logical Programming
- Title(参考訳): 微分可能なメタ論理プログラミング
- Authors: Zihan Ye, Hikaru Shindo, Devendra Singh Dhami, Kristian Kersting
- Abstract要約: 本稿では,より少ない深層学習を実現するために,DLMI(diffariable logical meta interpreter)を提案する。
鍵となる考え方は、一階述語論理における微分可能なフォワードチェイン推論を用いたメタ解釈を実現することである。
DLMIはメタ推論からオブジェクトレベルの推論へ、そしてその逆を反映またはイントロスペクションすることができる。
- 参考スコア(独自算出の注目度): 19.971305163415188
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning uses an increasing amount of computation and data to solve very
specific problems. By stark contrast, human minds solve a wide range of
problems using a fixed amount of computation and limited experience. One
ability that seems crucial to this kind of general intelligence is
meta-reasoning, i.e., our ability to reason about reasoning. To make deep
learning do more from less, we propose the differentiable logical meta
interpreter (DLMI). The key idea is to realize a meta-interpreter using
differentiable forward-chaining reasoning in first-order logic. This directly
allows DLMI to reason and even learn about its own operations. This is
different from performing object-level deep reasoning and learning, which
refers in some way to entities external to the system. In contrast, DLMI is
able to reflect or introspect, i.e., to shift from meta-reasoning to
object-level reasoning and vice versa. Among many other experimental
evaluations, we illustrate this behavior using the novel task of "repairing
Kandinsky patterns," i.e., how to edit the objects in an image so that it
agrees with a given logical concept.
- Abstract(参考訳): ディープラーニングは、計算量とデータを増やして、非常に具体的な問題を解決する。
対照的に、人間の心は一定量の計算と限られた経験を用いて幅広い問題を解決する。
この種の一般的な知性にとって不可欠と思われる能力の一つは、メタリゾナリング、すなわち推論を推論する能力である。
より少ない深層学習を実現するため,差別化可能な論理メタインタプリタ(DLMI)を提案する。
鍵となる考え方は、一階述語論理における微分可能前方鎖推論を用いたメタ解釈を実現することである。
これにより、DLMIは自身の操作を推論し、学習することが可能になる。
これは、何らかの方法でシステム外部のエンティティを参照する、オブジェクト指向の深い推論と学習の実行とは異なる。
対照的に、DLMIはメタ推論からオブジェクトレベルの推論へ、そしてその逆を反映または内観することができる。
その他の多くの実験的評価の中で、この振る舞いを「カンディンスキーパターンの再生」という新しいタスク、すなわち画像内のオブジェクトの編集方法を用いて説明し、与えられた論理概念に一致するようにする。
関連論文リスト
- Reasoning with Large Language Models, a Survey [2.831296564800826]
本稿では,LSMによるプロンプトベース推論の急速に進展する分野について概説する。
我々の分類学は、多段階推論の生成、評価、制御の異なる方法を特定します。
我々は, 自己改善, 自己回帰, 推論過程のいくつかのメタ能力が, プロンプトの司法的利用によって可能であることを発見した。
論文 参考訳(メタデータ) (2024-07-16T08:49:35Z) - Smart Vision-Language Reasoners [0.0]
視覚言語モデル(VLM)を推論として検討する。
抽象化を形成する能力は、数学的推論、問題解決、その他のMath AIタスクの根底にある。
SMARTタスクで与えられた抽象概念を8軸のメタ推論と問題解決のスキルとして採用する。
論文 参考訳(メタデータ) (2024-07-05T01:47:21Z) - Improving Complex Reasoning over Knowledge Graph with Logic-Aware Curriculum Tuning [89.89857766491475]
大規模言語モデル(LLM)に基づくKG上の複雑な推論スキーマを提案する。
任意の一階論理クエリを二分木分解により拡張し、LLMの推論能力を刺激する。
広く使われているデータセットに対する実験では、LACTは高度な手法よりも大幅に改善されている(平均+5.5% MRRスコア)。
論文 参考訳(メタデータ) (2024-05-02T18:12:08Z) - Democratizing Reasoning Ability: Tailored Learning from Large Language
Model [97.4921006089966]
そこで我々は,そのような推論能力をより小さなLMに蒸留する,適切な学習手法を提案する。
対話型多ラウンド学習パラダイムを構築することにより,理科教員としてのLLMの可能性を活用する。
より小さなLMの推論可能性を活用するために,学生が自作ミスから学習する動機付けを目的とした自己回帰学習を提案する。
論文 参考訳(メタデータ) (2023-10-20T07:50:10Z) - Memory-Augmented Theory of Mind Network [59.9781556714202]
社会的推論は、心の理論(ToM)の能力を必要とする。
ToMに対する最近の機械学習アプローチは、観察者が過去を読み、他のエージェントの振る舞いを提示するように訓練できることを実証している。
我々は,新たなニューラルメモリ機構を組み込んで符号化し,階層的な注意を払って他者に関する情報を選択的に検索することで,課題に対処する。
この結果、ToMMYは心的プロセスについての仮定をほとんど行わずに理性を学ぶマインドモデルである。
論文 参考訳(メタデータ) (2023-01-17T14:48:58Z) - Eliminating Meta Optimization Through Self-Referential Meta Learning [5.584060970507506]
明示的なメタ最適化を必要とせずに自己修正を行う自己参照メタ学習システムについて検討する。
ニューラルネットワークは、帯域幅と古典的な制御タスクを解決するために自己修正を行い、自己修正を改善し、学習方法を学ぶ。
論文 参考訳(メタデータ) (2022-12-29T17:53:40Z) - A Survey of Deep Learning for Mathematical Reasoning [71.88150173381153]
我々は過去10年間の数学的推論とディープラーニングの交差点における重要なタスク、データセット、方法についてレビューする。
大規模ニューラルネットワークモデルの最近の進歩は、新しいベンチマークと、数学的推論にディープラーニングを使用する機会を開放している。
論文 参考訳(メタデータ) (2022-12-20T18:46:16Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - Towards Benchmarking Explainable Artificial Intelligence Methods [0.0]
我々は、ニューラルネットワークによって推進される決定を説明する方法から、科学理論の哲学を、期待できるもの、期待できないものを明らかにすることを目的として分析レンズとして利用する。
ケーススタディにより、動物とヘッドギアの2つの常在領域における説明可能性法の性能の選択について検討した。
これらの手法の有用性は、人間のドメイン知識と、理解し、一般化し、理性に頼っている、と私たちはうなずく。
論文 参考訳(メタデータ) (2022-08-25T14:28:30Z) - Differentiable Logic Machines [38.21461039738474]
微分可能論理マシン(DLM)と呼ばれる新しいニューラル論理アーキテクチャを提案する。
DLMは帰納論理プログラミング(ILP)と強化学習(RL)の両方の問題を解くことができる。
解釈可能な解を必要としないRL問題では、DLMは他の解釈不可能なニューラル論理的RLアプローチよりも優れている。
論文 参考訳(メタデータ) (2021-02-23T07:31:52Z) - Dark, Beyond Deep: A Paradigm Shift to Cognitive AI with Humanlike
Common Sense [142.53911271465344]
我々は、次世代のAIは、新しいタスクを解決するために、人間のような「暗黒」の常識を取り入れなければならないと論じている。
我々は、人間のような常識を持つ認知AIの5つの中核領域として、機能、物理学、意図、因果性、実用性(FPICU)を識別する。
論文 参考訳(メタデータ) (2020-04-20T04:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。