論文の概要: Tensor Logic: The Language of AI
- arxiv url: http://arxiv.org/abs/2510.12269v3
- Date: Thu, 16 Oct 2025 07:40:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 14:17:28.092754
- Title: Tensor Logic: The Language of AI
- Title(参考訳): Tensor Logic: AIの言語
- Authors: Pedro Domingos,
- Abstract要約: 私は、トランスフォーマー、フォーマルな推論、カーネルマシン、グラフィカルモデルを含む、テンソル論理において、ニューラルネットワーク、象徴的、統計的AIのキーフォームをどのように実装するかを示します。
これは、ニューラルネットワークのスケーラビリティと学習性とシンボリック推論の信頼性と透明性を組み合わせることで、AIの普及の基盤となる可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Progress in AI is hindered by the lack of a programming language with all the requisite features. Libraries like PyTorch and TensorFlow provide automatic differentiation and efficient GPU implementation, but are additions to Python, which was never intended for AI. Their lack of support for automated reasoning and knowledge acquisition has led to a long and costly series of hacky attempts to tack them on. On the other hand, AI languages like LISP and Prolog lack scalability and support for learning. This paper proposes tensor logic, a language that solves these problems by unifying neural and symbolic AI at a fundamental level. The sole construct in tensor logic is the tensor equation, based on the observation that logical rules and Einstein summation are essentially the same operation, and all else can be reduced to them. I show how to elegantly implement key forms of neural, symbolic and statistical AI in tensor logic, including transformers, formal reasoning, kernel machines and graphical models. Most importantly, tensor logic makes new directions possible, such as sound reasoning in embedding space. This combines the scalability and learnability of neural networks with the reliability and transparency of symbolic reasoning, and is potentially a basis for the wider adoption of AI.
- Abstract(参考訳): AIの進歩は、必要な機能をすべて備えたプログラミング言語の欠如によって妨げられている。
PyTorchやTensorFlowといったライブラリは、自動微分と効率的なGPU実装を提供するが、Pythonの追加もある。
自動推論と知識獲得のサポートの欠如は、それらに取り組むための長くてコストのかかる一連のハックの試みにつながった。
一方、LISPやPrologのようなAI言語にはスケーラビリティや学習サポートがない。
本稿では,ニューラルネットワークと記号型AIを基本レベルで統一することで,これらの問題を解決する言語であるテンソル論理を提案する。
テンソル論理の唯一の構成はテンソル方程式であり、論理規則とアインシュタイン和は本質的に同じ演算であり、他の全てはそれらに還元できるという観察に基づいている。
私は、トランスフォーマー、フォーマルな推論、カーネルマシン、グラフィカルモデルを含むテンソル論理において、ニューラルネットワーク、象徴的、統計的AIのキーフォームをエレガントに実装する方法を示します。
最も重要なことは、テンソル論理は埋め込み空間における音の推論のような新しい方向を可能にすることである。
これは、ニューラルネットワークのスケーラビリティと学習性とシンボリック推論の信頼性と透明性を組み合わせることで、AIの普及の基盤となる可能性がある。
関連論文リスト
- AI Agents as Universal Task Solvers [94.49762121230042]
我々は,過去のデータを用いて,普遍的な解法が達成できる最適なスピードアップが,アルゴリズム情報と密接な関係があることを示す。
我々は、推論モデルをスケールする際に最適化する重要な量は時間であり、学習における重要な役割は、これまでは間接的にのみ考慮されてきたと論じている。
論文 参考訳(メタデータ) (2025-10-14T02:17:54Z) - Enhancing Symbolic Machine Learning by Subsymbolic Representations [2.4280350854512673]
ニューラル埋め込みにアクセスできるようにすることで、シンボリックな機械学習手法を強化することを提案する。
実世界の3つの領域の実験において、この単純で効果的なアプローチは、F1スコアの点で他のすべてのベースライン法より優れていることを示す。
論文 参考訳(メタデータ) (2025-06-17T14:26:21Z) - Training Neural Networks as Recognizers of Formal Languages [87.06906286950438]
ニューラルネットワークを文字列のバイナリ分類器として直接訓練し評価する。
3つのニューラルアーキテクチャに対して、チョムスキー階層の様々な言語について結果を提供する。
我々の貢献は、将来の研究において、言語認識の主張を理論的に健全に検証するのに役立つだろう。
論文 参考訳(メタデータ) (2024-11-11T16:33:25Z) - Empower Nested Boolean Logic via Self-Supervised Curriculum Learning [67.46052028752327]
大規模言語モデルを含む事前学習された言語モデルは、多言語論理に直面するランダムセレクタのように振る舞う。
この基本的能力で言語モデルを強化するために,本稿では,新たな自己教師付き学習手法であるtextitCurriculum Logical Reasoning (textscClr) を提案する。
論文 参考訳(メタデータ) (2023-10-09T06:54:02Z) - Getting from Generative AI to Trustworthy AI: What LLMs might learn from
Cyc [0.0]
ジェネレーティブAI(Generative AI)は、AIに対して最もポピュラーなアプローチであり、必ずしも正しいとは限らないアウトプットを生成するために訓練された大規模な言語モデル(LLM)で構成されている。
我々は、現在のアプローチに関連する多くの制限を理論的に解決できるAIに代わるアプローチについて議論する。
論文 参考訳(メタデータ) (2023-07-31T16:29:28Z) - ExAIS: Executable AI Semantics [4.092001692194709]
ニューラルネットワークは、プログラマの心の中で(しばしば非公式に)論理的推論を通じて、より複雑なプログラムを構築する代わりに、汎用的なニューラルネットワークモデルをビッグデータで最適化することで、新しいプログラミングパラダイムとみなすことができる。
この新しいパラダイムでは、PyTorchのようなAIフレームワークが重要な役割を果たす。
プログラミング言語(Cなど)の適切な意味論が欠如していること、すなわちコンパイラの正当性仕様が、多くの問題のあるプログラムの動作やセキュリティ問題に寄与していることが知られている。
論文 参考訳(メタデータ) (2022-02-20T17:33:34Z) - Emergence of Machine Language: Towards Symbolic Intelligence with Neural
Networks [73.94290462239061]
本稿では、ニューラルネットワークを用いてシンボルとコネクショナリズムの原理を組み合わせることで、離散表現を導出することを提案する。
対話型環境とタスクを設計することにより、機械が自発的で柔軟でセマンティックな言語を生成できることを実証した。
論文 参考訳(メタデータ) (2022-01-14T14:54:58Z) - Logic Tensor Networks [9.004005678155023]
学習と推論をサポートする神経シンボリック形式論と計算モデルであるLogic Networks(LTN)を提示する。
LTNがいくつかのAIタスクの仕様と計算に一様言語を提供することを示す。
論文 参考訳(メタデータ) (2020-12-25T22:30:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。