論文の概要: Liquid Reasoning Transformers: A Sudoku-Based Prototype for Chess-Scale Algorithmic Tasks
- arxiv url: http://arxiv.org/abs/2512.12792v1
- Date: Sun, 14 Dec 2025 18:20:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.442691
- Title: Liquid Reasoning Transformers: A Sudoku-Based Prototype for Chess-Scale Algorithmic Tasks
- Title(参考訳): 液体共振変換器:チェススケールアルゴリズムタスクのためのスドクベースプロトタイプ
- Authors: Shivansh Sahni, Wenzhi Zhang,
- Abstract要約: 液体共振変換器(Liquid Reasoning Transformer, LRT)は, 反復的な変化, 破棄に基づく補正, 学習停止機構を用いて, 適応深度を推論するために設計された変圧器アーキテクチャである。
我々は,スドクのLRTを構造化推論のための制御テストベッドとして評価し,98.68%の桁精度,36.30%のフルプッズ精度を記号規則や探索を使わずに達成できることを示す。
- 参考スコア(独自算出の注目度): 0.15469452301122175
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The Liquid Reasoning Transformer (LRT) is a transformer architecture designed for inference with adaptive depths using iterative changes, discard-based correction, and a learned stopping mechanism. Instead of relying on a single feedforward pass, the model updates a recurrent reasoning token across multiple internal steps, allowing it to correct early errors and allocate computation based on input difficulty. We evaluate the LRT on Sudoku as a controlled testbed for structured reasoning and show that it achieves strong performance, reaching 98.68% digit accuracy and 36.30% full-puzzle accuracy without using symbolic rules or search. Analyzing internal patterns shows that the discard and stop gates play different, important roles in stabilizing inferences and adjusting computational depth. We discuss how these mechanisms extend naturally to chess-scale reasoning tasks and outline extensions for multi-token reasoning and larger domains.
- Abstract(参考訳): 液体共振変換器(Liquid Reasoning Transformer, LRT)は, 反復的な変化, 破棄に基づく補正, 学習停止機構を用いて, 適応深度を推論するトランスフォーマアーキテクチャである。
モデルは単一のフィードフォワードパスに頼る代わりに、複数の内部ステップにまたがる繰り返し推論トークンを更新し、初期エラーを修正し、入力困難に基づいて計算を割り当てる。
我々は,スドクのLRTを構造化推論のための制御テストベッドとして評価し,98.68%の桁精度,36.30%のフルプッズ精度を記号規則や探索を使わずに達成できることを示す。
内部パターンを解析すると、廃棄ゲートと停止ゲートが異なる、推論の安定化と計算深さの調整において重要な役割を担っていることが分かる。
本稿では,これらのメカニズムがチェス規模の推論タスクにどのように自然に拡張するかを論じ,マルチトークン推論や大規模ドメインの拡張を概説する。
関連論文リスト
- Abduct, Act, Predict: Scaffolding Causal Inference for Automated Failure Attribution in Multi-Agent Systems [20.846301581161978]
マルチエージェントシステムにおける障害帰属は、批判的だが未解決の課題である。
現在の手法では、これを長い会話ログ上のパターン認識タスクとして扱う。
A2P Scaffoldingは、パターン認識から構造化因果推論タスクへの障害帰属を変換する。
論文 参考訳(メタデータ) (2025-09-12T16:51:15Z) - Latent Chain-of-Thought? Decoding the Depth-Recurrent Transformer [0.8738725605667471]
CoT(Chain-of- Thought)推論は、トランスフォーマーベースの言語モデルで複雑な数学や多段階計画に優れる。
標準的なデコーダのみのアーキテクチャでは、これらの推論ステップは自然言語で外部化され、効率を犠牲にして解釈性を向上させる。
パラメータ数の増加を伴わずに推論時に層を再利用する深度再帰変換器である Huginn-3.5B にそのような推論構造が出現するかどうかを検討する。
論文 参考訳(メタデータ) (2025-07-02T23:35:21Z) - Learning to Skip the Middle Layers of Transformers [25.958907308877148]
本研究では,中間層から外方へ可変層をスキップする新しいアーキテクチャを提案する。
特に、学習ゲーティング機構は、入力に基づいて中央ブロックの対称スパンをバイパスするかを決定する。
提案手法は, 層数が少なくて高密度なベースラインに比べて, 検証エントロピーと推定FLOPのトレードオフを改善することはできない。
論文 参考訳(メタデータ) (2025-06-26T09:01:19Z) - Understanding and Mitigating Numerical Sources of Nondeterminism in LLM Inference [31.2331188304598]
評価バッチサイズ、GPUカウント、GPUバージョンなどのシステム構成の変更は、生成されたレスポンスに大きな違いをもたらす可能性がある。
この変数の根本原因は、限定的な数値精度で浮動小数点算術の非連想性に遡る。
そこで我々は16ビットの精度で重みを格納するが、FP32では全ての計算を実行する軽量な推論パイプラインLayerCastを開発した。
論文 参考訳(メタデータ) (2025-06-11T08:23:53Z) - SEAL: Steerable Reasoning Calibration of Large Language Models for Free [58.931194824519935]
大規模言語モデル(LLM)は、拡張チェーン・オブ・ソート(CoT)推論機構を通じて複雑な推論タスクに魅力的な機能を示した。
最近の研究では、CoT推論トレースにかなりの冗長性が示されており、これはモデル性能に悪影響を及ぼす。
我々は,CoTプロセスをシームレスに校正し,高い効率性を示しながら精度を向上する,トレーニング不要なアプローチであるSEALを紹介した。
論文 参考訳(メタデータ) (2025-04-07T02:42:07Z) - Faith and Fate: Limits of Transformers on Compositionality [109.79516190693415]
3つの代表的構成課題にまたがる変圧器大言語モデルの限界について検討する。
これらのタスクは、問題をサブステップに分割し、これらのステップを正確な答えに合成する必要があります。
実験結果から,多段階合成推論を線形化部分グラフマッチングに還元することにより,トランスフォーマーLLMが構成課題を解くことが示唆された。
論文 参考訳(メタデータ) (2023-05-29T23:24:14Z) - Robustness Verification for Transformers [165.25112192811764]
我々はトランスフォーマーのための最初のロバスト性検証アルゴリズムを開発した。
提案手法で計算したロバスト性境界は, 素粒子間境界伝播法で計算したロバスト性境界よりもかなり厳密である。
これらの境界はまた、感情分析における異なる単語の重要性を常に反映しているトランスフォーマーの解釈にも光を当てている。
論文 参考訳(メタデータ) (2020-02-16T17:16:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。