論文の概要: The Mirror Loop: Recursive Non-Convergence in Generative Reasoning Systems
- arxiv url: http://arxiv.org/abs/2510.21861v1
- Date: Thu, 23 Oct 2025 07:53:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.622801
- Title: The Mirror Loop: Recursive Non-Convergence in Generative Reasoning Systems
- Title(参考訳): ミラーループ:生成推論システムにおける再帰的非収束
- Authors: Bentley DeVilling,
- Abstract要約: 外部からのフィードバックのない再帰的な自己評価は、進歩よりもむしろ改革をもたらすことが多い。
3つのモデル(OpenAI GPT-4o-mini, Anthropic Claude 3 Haiku, Google Gemini 2.0 Flash)と4つのタスクファミリー(パラメータ、コード、説明、リフレクション)にまたがる144の推論シーケンスについて検討する。
我々はこれを、生成的推論における自己補正の構造的限界の証拠として解釈する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Large language models are often described as capable of reflective reasoning, yet recursive self-evaluation without external feedback frequently yields reformulation rather than progress. We test this prediction in a cross-provider study of 144 reasoning sequences across three models (OpenAI GPT-4o-mini, Anthropic Claude 3 Haiku, and Google Gemini 2.0 Flash) and four task families (arithmetic, code, explanation, reflection), each iterated ten times under two conditions: ungrounded self-critique and a minimal grounding intervention (a single verification step at iteration three). Mean informational change (delta I, measured via normalized edit distance) declined by 55% from early (0.193) to late (0.087) iterations in ungrounded runs, with consistent patterns across all three providers. Grounded runs showed a +28% rebound in informational change immediately after the intervention and sustained non-zero variance thereafter. Complementary measures-n-gram novelty, embedding drift, and character-level entropy-converged on the same pattern: reflection without contact tends toward informational closure. We interpret this as evidence for a structural limit on self-correction in generative reasoning: without an exchange of information with an independent verifier or environment, recursive inference approaches an attractor state of epistemic stasis. Minimal grounding functions as dissipative coupling, reintroducing informational flux. The cross-architecture consistency suggests the mirror loop arises from shared autoregressive training objectives rather than provider-specific alignment schemes. The results delineate when reflection is performative rather than epistemic and motivate design principles for grounded, cooperative reasoning. Materials and code are publicly available.
- Abstract(参考訳): 大規模な言語モデルは、しばしば反射的推論が可能であると説明されるが、外部からのフィードバックなしに再帰的な自己評価は、進歩よりもむしろ改革をもたらす。
この予測は、3つのモデル(OpenAI GPT-4o-mini, Anthropic Claude 3 Haiku, Google Gemini 2.0 Flash)と4つのタスクファミリー(パラメータ、コード、説明、リフレクション)で144の推論シーケンスをクロスプロジェクタで検証し、それぞれが2つの条件下で10回反復された。
平均情報変化(デルタI、正規化編集距離で測定)は、3つのプロバイダすべてに一貫したパターンで、未実行時の早期(0.193)から後期(0.087)のイテレーションで55%減少した。
ラウンドドランでは介入直後の情報変化が+28%のリバウンドを示し,その後は非ゼロ分散が持続した。
補完的な測度-n-gramの新規性、埋め込みドリフト、文字レベルのエントロピーは、同じパターンに収束する。
我々はこれを、生成的推論における自己補正に関する構造的限界の証拠として解釈し、独立した検証者や環境との情報の交換なしに、再帰的推論はてんかんの誘引状態に近づく。
発散結合としての最小接地関数は情報フラックスを再導入する。
クロスアーキテクチャ一貫性は、ミラーループがプロバイダ固有のアライメントスキームではなく、共有自己回帰トレーニング目標から生じることを示唆している。
結果は、反射がてんかんというよりは行動的であり、根底的で協調的な推論のための設計原則を動機づけるものである。
資料やコードは公開されている。
関連論文リスト
- Cyclic Ablation: Testing Concept Localization against Functional Regeneration in AI [0.0]
中心的な問題は、偽りのような望ましくない振る舞いが、削除できる局所関数であるかどうかである。
本研究は,スパースオートエンコーダ,ターゲットアブレーション,対人訓練を組み合わせることで,偽装の概念を排除しようと試みた。
局所化仮説とは裏腹に, 偽装は非常に弾力性があることが判明した。
論文 参考訳(メタデータ) (2025-09-23T23:16:11Z) - Peer Effect Estimation in the Presence of Simultaneous Feedback and Unobserved Confounders [16.96064437725128]
既存の方法は、同時にフィードバックを無視しながら、観測されていない共同創設者に対処するか、あるいは、制限された線形仮定の下でフィードバックを考慮に入れます。
DIG2RSIは,同時フィードバックと非観測共起の両方に対処する新しいディープラーニングフレームワークである。
我々は、標準条件下での推定器の整合性を証明し、真のピア効果の回復を確実にする。
論文 参考訳(メタデータ) (2025-08-05T05:49:49Z) - BURN: Backdoor Unlearning via Adversarial Boundary Analysis [73.14147934175604]
Backdoor Unlearningは、モデル本来の機能を保持しながら、バックドア関連の情報を削除することを目的としている。
本稿では, 偽相関疎結合, プログレッシブデータリファインメント, モデル浄化を統合した新しい防御フレームワーク, BURNによるバックドア・アンラーニングを提案する。
論文 参考訳(メタデータ) (2025-07-14T17:13:06Z) - REBAR: Retrieval-Based Reconstruction for Time-series Contrastive Learning [64.08293076551601]
正の対を識別する学習尺度を新たに提案する。
検索ベースレコンストラクションは2つのシーケンス間の類似度を測定する。
本稿では,REBAR誤差が相互クラスメンバシップの予測因子であることを示す。
論文 参考訳(メタデータ) (2023-11-01T13:44:45Z) - Composed Image Retrieval with Text Feedback via Multi-grained
Uncertainty Regularization [73.04187954213471]
粗い検索ときめ細かい検索を同時にモデル化する統合学習手法を提案する。
提案手法は、強いベースラインに対して+4.03%、+3.38%、+2.40%のRecall@50精度を達成した。
論文 参考訳(メタデータ) (2022-11-14T14:25:40Z) - Forget-me-not! Contrastive Critics for Mitigating Posterior Collapse [20.258298183228824]
我々は,潜伏変数と観測値の対応を必要とする事で,後部崩壊を検知し,インセンティブを与える推論評論家を紹介した。
このアプローチは実装が簡単で、事前のメソッドよりもトレーニング時間が大幅に少なくなります。
論文 参考訳(メタデータ) (2022-07-19T20:07:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。