論文の概要: Circular Reasoning: Understanding Self-Reinforcing Loops in Large Reasoning Models
- arxiv url: http://arxiv.org/abs/2601.05693v1
- Date: Fri, 09 Jan 2026 10:23:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.944146
- Title: Circular Reasoning: Understanding Self-Reinforcing Loops in Large Reasoning Models
- Title(参考訳): 円形共振:大規模共振モデルにおける自己強化ループの理解
- Authors: Zenghao Duan, Liang Pang, Zihao Wei, Wenbin Duan, Yuxin Tian, Shicheng Xu, Jingcheng Deng, Zhiyi Yin, Xueqi Cheng,
- Abstract要約: Circular Reasoningは、生成されたコンテンツが自身の再発の論理的前提として機能する自己強化トラップである。
機械学的には、円の推論は異なる境界を示す状態崩壊として特徴付けられる。
自己強化型V字型アテンション機構によって駆動される不自由なサイクルとして継続するループ開始を誘導する推論が阻害されることを明らかにする。
- 参考スコア(独自算出の注目度): 66.11277323593475
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the success of test-time scaling, Large Reasoning Models (LRMs) frequently encounter repetitive loops that lead to computational waste and inference failure. In this paper, we identify a distinct failure mode termed Circular Reasoning. Unlike traditional model degeneration, this phenomenon manifests as a self-reinforcing trap where generated content acts as a logical premise for its own recurrence, compelling the reiteration of preceding text. To systematically analyze this phenomenon, we introduce LoopBench, a dataset designed to capture two distinct loop typologies: numerical loops and statement loops. Mechanistically, we characterize circular reasoning as a state collapse exhibiting distinct boundaries, where semantic repetition precedes textual repetition. We reveal that reasoning impasses trigger the loop onset, which subsequently persists as an inescapable cycle driven by a self-reinforcing V-shaped attention mechanism. Guided by these findings, we employ the Cumulative Sum (CUSUM) algorithm to capture these precursors for early loop prediction. Experiments across diverse LRMs validate its accuracy and elucidate the stability of long-chain reasoning.
- Abstract(参考訳): テスト時間スケーリングの成功にもかかわらず、Large Reasoning Models (LRM) はしばしば繰り返しループに遭遇し、計算の無駄と推論の失敗につながる。
本稿では,循環推論と呼ばれる個別の障害モードを同定する。
従来のモデル変性とは異なり、この現象は、生成されたコンテンツが自身の再発の論理的前提として振る舞う自己強化トラップとして現れ、先行するテキストの繰り返しを誘惑する。
この現象を体系的に解析するために、数値ループとステートメントループという2つの異なるループ型をキャプチャするためのデータセットであるLoopBenchを導入する。
機械学的には、文の繰り返しに先立って意味的な反復が行われる境界を示す状態崩壊として円形の推論を特徴付ける。
自己強化型V字型アテンション機構によって駆動される不自由なサイクルとして継続するループ開始を誘導する推論が阻害されることを明らかにする。
これらの知見に導かれて、初期ループ予測のために累積サム(CUSUM)アルゴリズムを用いて、これらの前駆体を捕捉する。
様々なLEMに対する実験は、その精度を検証し、長鎖推論の安定性を解明する。
関連論文リスト
- Analyzing Reasoning Consistency in Large Multimodal Models under Cross-Modal Conflicts [74.47786985522762]
テキスト慣性(textual inertia)と呼ばれる重要な障害モードを特定し、矛盾する視覚的証拠を無視しながら、モデルは間違ったテキストに盲目的に固執する傾向がある。
本稿では,多種多様なLMMの推論連鎖に摂動を構造的に注入するLogicGraph摂動プロトコルを提案する。
その結果,10%未満の症例で自己修正が成功し,主に視覚的テキスト誤りの伝播に寄与することが判明した。
論文 参考訳(メタデータ) (2026-01-07T16:39:34Z) - Rationale-Grounded In-Context Learning for Time Series Reasoning with Multimodal Large Language Models [39.75347938309383]
本稿では,時間列推論のための理性学習手法を提案する。
提案するRationaleTSの3ドメイン時系列推論タスクにおける有効性と有効性を示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2026-01-06T12:27:04Z) - Interpreting the Repeated Token Phenomenon in Large Language Models [31.1226642501095]
大きな言語モデル (LLM) は、引き起こされた時に1つの単語を正確に繰り返すことができず、代わりに無関係なテキストを出力する。
「この現象の原因を説明し、注意流しの概念と結びつけよう。」
我々の研究は、注意シンクの原因となる神経回路を特定し、この回路がどれくらいの時間繰り返しで破壊されるかを示す。
論文 参考訳(メタデータ) (2025-03-11T21:40:58Z) - Gumbel Counterfactual Generation From Language Models [64.55296662926919]
対実的推論が介入と概念的に異なることを示す。
そこで本研究では,真の文字列反事実を生成するためのフレームワークを提案する。
提案手法は,従来の介入手法が望ましくない副作用を有意に生み出しているのに対し,本手法は有意義な反事実を生じさせることを示す。
論文 参考訳(メタデータ) (2024-11-11T17:57:30Z) - Causal Discovery in Semi-Stationary Time Series [32.424281626708336]
本研究では,観測時系列における因果関係を発見するための制約に基づく非パラメトリックアルゴリズムを提案する。
このアルゴリズムは離散時系列における因果関係の同定に有効であることを示す。
論文 参考訳(メタデータ) (2024-07-10T00:55:38Z) - Root Cause Identification for Collective Anomalies in Time Series given
an Acyclic Summary Causal Graph with Loops [1.8416014644193066]
本論文はまず,根本原因同定の問題を多くの独立したサブプロブレムに分割する方法について述べる。
この設定の下では、いくつかの根本原因はグラフや異常の出現時から直接発見することができる。
根の他の原因は、正常な状態と異常な状態の直接的な影響を比較することで見つけることができる。
論文 参考訳(メタデータ) (2023-03-07T16:47:35Z) - DynGFN: Towards Bayesian Inference of Gene Regulatory Networks with
GFlowNets [81.75973217676986]
遺伝子調節ネットワーク(GRN)は、遺伝子発現と細胞機能を制御する遺伝子とその産物間の相互作用を記述する。
既存の方法は、チャレンジ(1)、ダイナミックスから循環構造を識別すること、あるいはチャレンジ(2)、DAGよりも複雑なベイズ後部を学習することに焦点を当てるが、両方ではない。
本稿では、RNAベロシティ技術を用いて遺伝子発現の「速度」を推定できるという事実を活用し、両方の課題に対処するアプローチを開発する。
論文 参考訳(メタデータ) (2023-02-08T16:36:40Z) - Sequential Learning of the Topological Ordering for the Linear
Non-Gaussian Acyclic Model with Parametric Noise [6.866717993664787]
我々はDAGの因果順序を推定するための新しい逐次的アプローチを開発する。
数千のノードを持つケースに対して,我々の手順がスケーラブルであることを示すための,広範な数値的証拠を提供する。
論文 参考訳(メタデータ) (2022-02-03T18:15:48Z) - Consistency of a Recurrent Language Model With Respect to Incomplete
Decoding [67.54760086239514]
逐次言語モデルから無限長のシーケンスを受信する問題について検討する。
不整合に対処する2つの対策として、トップkと核サンプリングの一貫性のある変種と、自己終端の繰り返し言語モデルを提案する。
論文 参考訳(メタデータ) (2020-02-06T19:56:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。