論文の概要: Logic Tensor Networks
- arxiv url: http://arxiv.org/abs/2012.13635v3
- Date: Sun, 17 Jan 2021 01:28:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 04:45:36.629190
- Title: Logic Tensor Networks
- Title(参考訳): 論理テンソルネットワーク
- Authors: Samy Badreddine and Artur d'Avila Garcez and Luciano Serafini and
Michael Spranger
- Abstract要約: 学習と推論をサポートする神経シンボリック形式論と計算モデルであるLogic Networks(LTN)を提示する。
LTNがいくつかのAIタスクの仕様と計算に一様言語を提供することを示す。
- 参考スコア(独自算出の注目度): 9.004005678155023
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence agents are required to learn from their surroundings
and to reason about the knowledge that has been learned in order to make
decisions. While state-of-the-art learning from data typically uses
sub-symbolic distributed representations, reasoning is normally useful at a
higher level of abstraction with the use of a first-order logic language for
knowledge representation. As a result, attempts at combining symbolic AI and
neural computation into neural-symbolic systems have been on the increase. In
this paper, we present Logic Tensor Networks (LTN), a neurosymbolic formalism
and computational model that supports learning and reasoning through the
introduction of a many-valued, end-to-end differentiable first-order logic
called Real Logic as a representation language for deep learning. We show that
LTN provides a uniform language for the specification and the computation of
several AI tasks such as data clustering, multi-label classification,
relational learning, query answering, semi-supervised learning, regression and
embedding learning. We implement and illustrate each of the above tasks with a
number of simple explanatory examples using TensorFlow 2. Keywords:
Neurosymbolic AI, Deep Learning and Reasoning, Many-valued Logic.
- Abstract(参考訳): 人工知能エージェントは、周囲から学び、意思決定のために学習された知識について判断することが求められる。
データからの最先端の学習は、通常、サブシンボリックな分散表現を使用するが、推論は通常、知識表現に一階述語論理言語を用いることでより高度な抽象レベルで有用である。
その結果、シンボリックAIとニューラル計算をニューラルシンボリックシステムに組み合わせようとする試みが増加している。
本稿では,多値・エンドツーエンドの微分可能一階述語論理であるreal logicをディープラーニングの表現言語として導入することにより,学習と推論を支援するニューロシンボリック形式と計算モデルである logic tensor networks (ltn) を提案する。
LTNは,データクラスタリング,マルチラベル分類,リレーショナル学習,クエリ応答,半教師付き学習,回帰学習,埋め込み学習など,いくつかのAIタスクの仕様と計算のための統一言語を提供する。
TensorFlow 2.0を使用した簡単な説明例を多数用意して,上記の各タスクの実装と説明を行う。
キーワード:Neurosymbolic AI, Deep Learning and Reasoning, Many-valued Logic。
関連論文リスト
- Training Neural Networks as Recognizers of Formal Languages [87.06906286950438]
形式言語理論は、特に認識者に関するものである。
代わりに、非公式な意味でのみ類似したプロキシタスクを使用するのが一般的である。
ニューラルネットワークを文字列のバイナリ分類器として直接訓練し評価することで、このミスマッチを補正する。
論文 参考訳(メタデータ) (2024-11-11T16:33:25Z) - Improving Complex Reasoning over Knowledge Graph with Logic-Aware Curriculum Tuning [89.89857766491475]
大規模言語モデル(LLM)に基づくKG上の複雑な推論スキーマを提案する。
任意の一階論理クエリを二分木分解により拡張し、LLMの推論能力を刺激する。
広く使われているデータセットに対する実験では、LACTは高度な手法よりも大幅に改善されている(平均+5.5% MRRスコア)。
論文 参考訳(メタデータ) (2024-05-02T18:12:08Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Scallop: A Language for Neurosymbolic Programming [14.148819428748597]
Scallopは、ディープラーニングと論理的推論の利点を組み合わせた言語である。
アルゴリズム推論を多様で困難なAIタスクで表現することができる。
機械学習プログラマが論理的なドメイン知識を統合するための簡潔なインターフェースを提供する。
論文 参考訳(メタデータ) (2023-04-10T18:46:53Z) - Neuro-Symbolic Learning of Answer Set Programs from Raw Data [54.56905063752427]
Neuro-Symbolic AIは、シンボリックテクニックの解釈可能性と、生データから学ぶ深層学習の能力を組み合わせることを目的としている。
本稿では,ニューラルネットワークを用いて生データから潜在概念を抽出するNSIL(Neuro-Symbolic Inductive Learner)を提案する。
NSILは表現力のある知識を学習し、計算的に複雑な問題を解き、精度とデータ効率の観点から最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-05-25T12:41:59Z) - Emergence of Machine Language: Towards Symbolic Intelligence with Neural
Networks [73.94290462239061]
本稿では、ニューラルネットワークを用いてシンボルとコネクショナリズムの原理を組み合わせることで、離散表現を導出することを提案する。
対話型環境とタスクを設計することにより、機械が自発的で柔軟でセマンティックな言語を生成できることを実証した。
論文 参考訳(メタデータ) (2022-01-14T14:54:58Z) - Abductive Knowledge Induction From Raw Data [12.868722327487752]
本稿では,帰納的メタ解釈学習(Meta_Abd$)を提案する。
実験の結果,$Meta_Abd$は予測精度とデータ効率で比較したシステムより優れることがわかった。
論文 参考訳(メタデータ) (2020-10-07T16:33:28Z) - Neural Logic Reasoning [47.622957656745356]
本稿では,ディープラーニングと論理推論の能力を統合するために,論理統合ニューラルネットワーク(LINN)を提案する。
LINNは、神経モジュールとしてAND、OR、NOTなどの基本的な論理操作を学び、推論のためにネットワークを通して命題論理推論を行う。
実験の結果、LINNはTop-Kレコメンデーションにおいて最先端のレコメンデーションモデルを大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2020-08-20T14:53:23Z) - Evaluating Logical Generalization in Graph Neural Networks [59.70452462833374]
グラフニューラルネットワーク(GNN)を用いた論理一般化の課題について検討する。
ベンチマークスイートであるGraphLogでは、学習アルゴリズムが異なる合成論理でルール誘導を実行する必要がある。
モデルが一般化し適応する能力は、トレーニング中に遭遇する論理規則の多様性によって強く決定される。
論文 参考訳(メタデータ) (2020-03-14T05:45:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。