論文の概要: From Fuzzy to Exact: The Halo Architecture for Infinite-Depth Reasoning via Rational Arithmetic
- arxiv url: http://arxiv.org/abs/2601.18702v1
- Date: Mon, 26 Jan 2026 17:24:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.96207
- Title: From Fuzzy to Exact: The Halo Architecture for Infinite-Depth Reasoning via Rational Arithmetic
- Title(参考訳): ファジィからエクササイズへ:合理的算術による無限深度推論のためのハロアーキテクチャ
- Authors: Hansheng Ren,
- Abstract要約: 汎用インテリジェンス(AGI)は、任意精度算術演算が可能な計算基板を必要とする。
本研究は,システム2AGIにおける論理的不確実性を低減するための前提条件として,正確な算術を確立した。
- 参考スコア(独自算出の注目度): 0.10152838128195464
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current paradigms in Deep Learning prioritize computational throughput over numerical precision, relying on the assumption that intelligence emerges from statistical correlation at scale. In this paper, we challenge this orthodoxy. We propose the Exactness Hypothesis: that General Intelligence (AGI), specifically high-order causal inference, requires a computational substrate capable of Arbitrary Precision Arithmetic. We argue that the "hallucinations" and logical incoherence seen in current Large Language Models (LLMs) are artifacts of IEEE 754 floating-point approximation errors accumulating over deep compositional functions. To mitigate this, we introduce the Halo Architecture, a paradigm shift to Rational Arithmetic ($\mathbb{Q}$) supported by a novel Exact Inference Unit (EIU). Empirical validation on the Huginn-0125 prototype demonstrates that while 600B-parameter scale BF16 baselines collapse in chaotic systems, Halo maintains zero numerical divergence indefinitely. This work establishes exact arithmetic as a prerequisite for reducing logical uncertainty in System 2 AGI.
- Abstract(参考訳): ディープ・ラーニングの現在のパラダイムは、インテリジェンスが大規模に統計的に相関して現れるという仮定に基づいて、数値精度よりも計算スループットを優先している。
本稿では,この正統性に挑戦する。
本稿では,特に高次因果推論である一般知能(AGI)が任意精度算術的な計算基板を必要とすることを提案する。
我々は,現在のLarge Language Models (LLMs) に見られる「幻覚」と論理的不整合は,深い構成関数を蓄積したIEEE 754浮動小数点近似誤差のアーティファクトであると主張している。
この問題を緩和するために、私たちは、新しいExact Inference Unit(EIU)によってサポートされているRational Arithmetic(\mathbb{Q}$)へのパラダイムシフトであるHalo Architectureを紹介します。
Huginn-0125 プロトタイプの実証検証では、600B パラメータスケールの BF16 ベースラインがカオス系で崩壊する一方、Halo はゼロの数値分岐を無限に維持することを示した。
本研究は,システム2AGIにおける論理的不確実性を低減するための前提条件として,正確な算術を確立した。
関連論文リスト
- Milestones over Outcome: Unlocking Geometric Reasoning with Sub-Goal Verifiable Reward [67.00373428443879]
サブゴールレベルの評価と学習へのパラダイムシフトを導入する。
まず,厳密な形式検証データエンジンを用いたベンチマークであるGeoGoalを構築した。
本研究では,スケルトンレートに基づいて,スパース信号を高密度な報酬に置き換えるサブゴール検証リワード(SGVR)フレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-08T16:17:56Z) - HERMES: Towards Efficient and Verifiable Mathematical Reasoning in LLMs [32.234133057592935]
Hermesはツール支援エージェントで、リーンシステムにおける検証段階と非公式な推論をインターリーブする。
パラメータスケールの異なる LLM を用いて,Hermes を4つの挑戦的数学的推論ベンチマークで評価する。
論文 参考訳(メタデータ) (2025-11-24T04:50:18Z) - AI Agents as Universal Task Solvers [94.49762121230042]
我々は,過去のデータを用いて,普遍的な解法が達成できる最適なスピードアップが,アルゴリズム情報と密接な関係があることを示す。
我々は、推論モデルをスケールする際に最適化する重要な量は時間であり、学習における重要な役割は、これまでは間接的にのみ考慮されてきたと論じている。
論文 参考訳(メタデータ) (2025-10-14T02:17:54Z) - Hallucination as a Computational Boundary: A Hierarchy of Inevitability and the Oracle Escape [9.737202904844562]
大規模言語モデル(LLM)のイリュージョン現象は、信頼性の高いデプロイメントにおける中核的な障害である。
本稿では,「計算必要階層」を構築することにより,大規模言語モデルを確率的チューリングマシンとして定式化する。
2つの「エスケープルート」を提案する。1つは「コンピュータジャンプ」による絶対脱出を証明し、レトリーバル拡張世代(RAG)をオラクルマシンとしてモデル化することである。
論文 参考訳(メタデータ) (2025-08-10T13:26:36Z) - Can LLMs Reason Abstractly Over Math Word Problems Without CoT? Disentangling Abstract Formulation From Arithmetic Computation [39.50584137093401]
ファイナルアンサーベースのメトリクスは、数学の単語問題に対する大規模言語モデル(LLM)の評価に一般的に使用される。
計算ステップにより,CoTを含まないLlama-3とQwen2.5(1B-32B)の問合せ精度が圧倒的にボトルネックとなることを示す。
メカニカルには、これらの2つのスキルは、推論ステップなしで、1つのフォワードパスにおいてさえ共役的に構成されていることが示される。
論文 参考訳(メタデータ) (2025-05-29T17:37:57Z) - Oracle Computability and Turing Reducibility in the Calculus of
Inductive Constructions [0.0]
インダクティブ・コンストラクションの計算におけるオラクル計算可能性とチューリング再現性の概念を総合的に展開する。
通常、合成手法では、メタレベル関数に基づいたオラクル計算の定義を用いる。
チューリングの再現性は上半格子を形成し、決定可能性を持ち、真理値の再現性よりも厳密に表現可能であることを示す。
論文 参考訳(メタデータ) (2023-07-28T13:16:46Z) - Efficient Computation of Counterfactual Bounds [44.4263314637532]
我々は,構造因果モデルのサブクラスにおけるクレダルネットのアルゴリズムを用いて,正確な反ファクト境界を計算する。
近似の精度を信頼性のある間隔で評価する。
論文 参考訳(メタデータ) (2023-07-17T07:59:47Z) - Statistically Meaningful Approximation: a Case Study on Approximating
Turing Machines with Transformers [50.85524803885483]
本研究は,統計的学習性を示すために近似ネットワークを必要とする統計有意(SM)近似の形式的定義を提案する。
回路とチューリングマシンの2つの機能クラスに対するSM近似について検討する。
論文 参考訳(メタデータ) (2021-07-28T04:28:55Z) - Causal Expectation-Maximisation [70.45873402967297]
ポリツリーグラフを特徴とするモデルにおいても因果推論はNPハードであることを示す。
我々は因果EMアルゴリズムを導入し、分類的表現変数のデータから潜伏変数の不確かさを再構築する。
我々は、反事実境界が構造方程式の知識なしにしばしば計算できるというトレンドのアイデアには、目立たずの制限があるように思える。
論文 参考訳(メタデータ) (2020-11-04T10:25:13Z) - From Checking to Inference: Actual Causality Computations as
Optimization Problems [79.87179017975235]
本稿では、最適化問題として二元非巡回モデルよりも、因果推論の異なる概念を定式化するための新しいアプローチを提案する。
8000ドル以上の変数を持つモデルを用いて,MaxSAT が ILP を上回り,数秒単位でチェック処理を行う場合が多い。
論文 参考訳(メタデータ) (2020-06-05T10:56:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。