論文の概要: An AI Monkey Gets Grapes for Sure -- Sphere Neural Networks for Reliable Decision-Making
- arxiv url: http://arxiv.org/abs/2601.00142v1
- Date: Thu, 01 Jan 2026 00:07:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.279948
- Title: An AI Monkey Gets Grapes for Sure -- Sphere Neural Networks for Reliable Decision-Making
- Title(参考訳): AI Monkeyが確実にグレープを取得 -- 信頼性の高い意思決定のための球ニューラルネット
- Authors: Tiansi Dong, Henry He, Pietro Liò, Mateja Jamnik,
- Abstract要約: 本稿では,LLM推論,教師付き学習ベース推論,明示的モデルベース推論の3つの方法論的カテゴリを比較した。
教師付き学習による推論は、明示的なモデル構築による推論よりも魅力的でないことを示す。
我々は,n次元球面上に概念を円として埋め込むSphere Neural Networksの新バージョンを提案する。
- 参考スコア(独自算出の注目度): 29.42914503379841
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper compares three methodological categories of neural reasoning: LLM reasoning, supervised learning-based reasoning, and explicit model-based reasoning. LLMs remain unreliable and struggle with simple decision-making that animals can master without extensive corpora training. Through disjunctive syllogistic reasoning testing, we show that reasoning via supervised learning is less appealing than reasoning via explicit model construction. Concretely, we show that an Euler Net trained to achieve 100.00% in classic syllogistic reasoning can be trained to reach 100.00% accuracy in disjunctive syllogistic reasoning. However, the retrained Euler Net suffers severely from catastrophic forgetting (its performance drops to 6.25% on already-learned classic syllogistic reasoning), and its reasoning competence is limited to the pattern level. We propose a new version of Sphere Neural Networks that embeds concepts as circles on the surface of an n-dimensional sphere. These Sphere Neural Networks enable the representation of the negation operator via complement circles and achieve reliable decision-making by filtering out illogical statements that form unsatisfiable circular configurations. We demonstrate that the Sphere Neural Network can master 16 syllogistic reasoning tasks, including rigorous disjunctive syllogistic reasoning, while preserving the rigour of classical syllogistic reasoning. We conclude that neural reasoning with explicit model construction is the most reliable among the three methodological categories of neural reasoning.
- Abstract(参考訳): 本稿では,LLM推論,教師付き学習ベース推論,明示的モデルベース推論の3つの方法論的カテゴリを比較した。
LLMは信頼できないままで、動物が広範囲のコーパストレーニングなしでマスターできる簡単な意思決定に苦戦している。
解離的シロメトリクス推論テストにより、教師付き学習による推論は、明示的なモデル構築による推論よりも魅力的でないことを示す。
具体的には,古典的シロメトリクスの100.00%を達成するために訓練されたオイラーネットを,解離的シロメトリクスの100.00%の精度に達するように訓練できることを示す。
しかし、再訓練されたオイラーネットは破滅的な忘れ込み(既に学習した古典的なシロジカル推論ではパフォーマンスが6.25%に低下する)、その推論能力はパターンレベルに限られている。
我々は,n次元球面上に概念を円として埋め込むSphere Neural Networksの新バージョンを提案する。
これらの球ニューラルネットは、相補円による否定作用素の表現を可能にし、不満足な円形構成を形成する非論理的ステートメントをフィルタリングすることにより、信頼性の高い意思決定を実現する。
我々は,Sphere Neural Networkが古典的シロメトリ推論の厳密さを維持しつつ,厳密な解離性シロメトリ推論を含む16のシロメトリ推論タスクをマスターできることを実証した。
モデル構築を明示したニューラル推論は,ニューラル推論の3つの方法論的カテゴリの中で最も信頼性が高いと結論付けた。
関連論文リスト
- Learning to Reason via Mixture-of-Thought for Logical Reasoning [56.24256916896427]
Mixture-of-Thought (MoT) は、LLMが自然言語、コード、真理表の3つの相補的なモダリティにまたがる推論を可能にするフレームワークである。
MoT は,(1) 自己進化型 MoT トレーニング,(2) 3 つのモーダルの相乗効果を完全に活用してより良い予測を生成する MoT 推論,という2段階の設計を採用する。
論文 参考訳(メタデータ) (2025-05-21T17:59:54Z) - Conceptual and Unbiased Reasoning in Language Models [98.90677711523645]
本稿では,抽象的質問に対する概念的推論をモデルに強制する,新しい概念化フレームワークを提案する。
既存の大規模言語モデルは概念的推論では不足しており、様々なベンチマークでは9%から28%に低下している。
ハイレベルな抽象的推論が不偏で一般化可能な意思決定の鍵となるので、モデルがどのように改善できるかについて議論する。
論文 参考訳(メタデータ) (2024-03-30T00:53:53Z) - Sphere Neural-Networks for Rational Reasoning [24.591858077975548]
ベクトルから球面への計算ビルディングブロックの一般化による新しい拡張を提案する。
モデル構築と検査を通して人間のような推論を行うための球ニューラルネット(SphNN)を提案する。
SphNNは、合理性-時間的推論、否定と解離を伴う論理的推論、イベント推論、ニューロシンボリック統一、ユーモア理解など、様々なタイプの推論に進化することができる。
論文 参考訳(メタデータ) (2024-03-22T15:44:59Z) - Continual Reasoning: Non-Monotonic Reasoning in Neurosymbolic AI using
Continual Learning [2.912595438026074]
ニューラルシンボリックシステムと連続学習の手法を組み合わせることで、Logic Networksはより高い精度を得ることができることを示す。
LTNには、知識とデータからの学習のカリキュラムをリコールで導入することにより、継続的な学習が加えられる。
結果は,非単調推論問題において有意な改善が認められた。
論文 参考訳(メタデータ) (2023-05-03T15:11:34Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Neural Logic Reasoning [47.622957656745356]
本稿では,ディープラーニングと論理推論の能力を統合するために,論理統合ニューラルネットワーク(LINN)を提案する。
LINNは、神経モジュールとしてAND、OR、NOTなどの基本的な論理操作を学び、推論のためにネットワークを通して命題論理推論を行う。
実験の結果、LINNはTop-Kレコメンデーションにおいて最先端のレコメンデーションモデルを大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2020-08-20T14:53:23Z) - Logical Neural Networks [51.46602187496816]
ニューラルネットワーク(学習)と記号論理(知識と推論)の両方の重要な特性をシームレスに提供する新しいフレームワークを提案する。
すべてのニューロンは、重み付けされた実数値論理における公式の構成要素としての意味を持ち、非常に解釈不能な非絡み合い表現をもたらす。
推論は事前に定義されたターゲット変数ではなく、オムニであり、論理的推論に対応する。
論文 参考訳(メタデータ) (2020-06-23T16:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。