論文の概要: DIO: Refining Mutual Information and Causal Chain to Enhance Machine Abstract Reasoning Ability
- arxiv url: http://arxiv.org/abs/2508.15387v5
- Date: Wed, 15 Oct 2025 15:24:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.291616
- Title: DIO: Refining Mutual Information and Causal Chain to Enhance Machine Abstract Reasoning Ability
- Title(参考訳): DIO: 機械抽象推論能力を高めるための相互情報と因果連鎖の精製
- Authors: Ruizhuo Song, Beiming Yuan,
- Abstract要約: 我々は、パターン、推論、問題解決知能のベンチマークであるRaven's Progressive Matrices (RPM)に取り組む。
完全な因果連鎖イメージ$rightarrow$属性$rightarrow$プログレッシブパターンをモデル化し、ベースラインDIOを構築します。
しかし、DIOの低境界目的には人間の論理が組み込まれていないため、3つの改良点が提示される。
- 参考スコア(独自算出の注目度): 4.017760528208121
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite deep learning's broad success, its abstract-reasoning bottleneck persists. We tackle Raven's Progressive Matrices (RPM), the benchmark for pattern, reasoning and problem-solving intelligence. We model the full causal chain image $\rightarrow$ attributes $\rightarrow$ progressive patterns $\rightarrow$ consistency $\rightarrow$ answer and build the baseline DIO. Yet DIO's mutual-information lower-bound objective does not embed human logic: the bound is loose and statistic-based, ignoring causal subject-object links. We therefore present three refinements. 1) Brando introduces trainable negative options to tighten the variational bound. 2) WORLD replaces generation with a Gaussian-mixture feature model that supplies infinite, weighted negatives, further tightening the bound. 3) DIEGO adds metadata supervision to rectify the "attributes $\rightarrow$ patterns" semantic gap, aligning representations with human rules. These upgrades substantially boost discriminative RPM accuracy and, for the first time, let DIO generate valid answers in open-ended RPM. The work provides causal-driven design guidelines, objective-refinement strategies and cross-modal insights for abstract-reasoning research.
- Abstract(参考訳): 深層学習の成功にもかかわらず、抽象的なボトルネックは持続する。
我々は、パターン、推論、問題解決知能のベンチマークであるRaven's Progressive Matrices (RPM)に取り組む。
完全な因果連鎖イメージ$\rightarrow$属性$\rightarrow$プログレッシブパターン$\rightarrow$一貫性$\rightarrow$応答をモデル化し、ベースラインDIOを構築します。
しかし、DIOの相互情報下界目的は人間の論理を組み込まない: 境界は緩く統計ベースであり、因果対象のリンクを無視している。
したがって、我々は3つの改良点を提示する。
1Brandoは、変動境界を厳格化するために、トレーニング可能な負のオプションを導入している。
2) WORLD は生成をガウス混合特徴モデルに置き換える。
3) DIEGOはメタデータの監視を追加し、"属性$\rightarrow$パターン"の意味ギャップを是正し、表現と人間のルールを整合させる。
これらのアップグレードは差別的RPMの精度を大幅に向上させ、DIOがオープンエンドRPMで有効な回答を初めて生成させる。
この研究は、因果的デザインガイドライン、客観的リファインメント戦略、抽象的推論研究のためのクロスモーダルな洞察を提供する。
関連論文リスト
- Reasoning Model Unlearning: Forgetting Traces, Not Just Answers, While Preserving Reasoning Skills [32.96074934023323]
大きな推論モデル(LRM)は、テスト時間計算を通じて強力なチェーン・オブ・シント(CoT)生成を可能にした。
従来の未学習アルゴリズムは、もともと非推論モデル用に設計されていたが、LRMには不適当であることを示す。
本稿では,意味のある推論トレースを効果的に抑制する新しい手法であるReasoning-aware Representation Misdirection for Unlearning(R2MU$)を提案する。
論文 参考訳(メタデータ) (2025-06-15T20:54:23Z) - PixelThink: Towards Efficient Chain-of-Pixel Reasoning [70.32510083790069]
PixelThinkは、外部から推定されるタスクの難しさと内部で測定されたモデルの不確実性を統合する、シンプルで効果的なスキームである。
シーンの複雑さと予測信頼度に応じて推論の長さを圧縮することを学ぶ。
実験により,提案手法は推論効率と全体セグメンテーション性能の両方を改善した。
論文 参考訳(メタデータ) (2025-05-29T17:55:49Z) - Efficient Inference for Large Reasoning Models: A Survey [74.17203483365171]
LRM(Large Reasoning Models)は、Large Language Models(LLM)の推論能力を大幅に向上させる。
しかし、それらの熟考的推論プロセスはトークンの使用、メモリ消費、推論時間に非効率をもたらす。
本調査では, LRMに特化して設計された効率的な推論手法を概説し, 推論品質を維持しつつトークンの非効率を緩和することに着目した。
論文 参考訳(メタデータ) (2025-03-29T13:27:46Z) - Visualizing Thought: Conceptual Diagrams Enable Robust Planning in LMMs [57.66267515456075]
大規模言語モデル (LLM) と大規模マルチモーダルモデル (LMM) は、主にテキスト表現を通して推論される。
自己生成概念図の複数の連鎖を通してLMMを推論できるゼロショット完全自動フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-14T18:27:02Z) - Reward Models Identify Consistency, Not Causality [54.987590763737145]
最先端の報酬モデルでは、因果正しさよりも構造的な一貫性が優先される。
問題文の削除は報酬のスコアに最小限の影響を与える。
数値を変更するか、推論フローを乱すかは、RM出力に大きく影響する。
論文 参考訳(メタデータ) (2025-02-20T14:57:14Z) - Path-of-Thoughts: Extracting and Following Paths for Robust Relational Reasoning with Large Language Models [62.12031550252253]
本稿では,関係推論に対処するための新しいフレームワークであるPath-of-Thoughts(PoT)を提案する。
PoTは、問題コンテキスト内の重要なエンティティ、関係、属性を識別するタスクに依存しないグラフを効率的に抽出する。
PoTは、提案された質問に対応するグラフ内の関連する推論連鎖を特定し、潜在的な答えの推論を容易にする。
論文 参考訳(メタデータ) (2024-12-23T20:27:12Z) - Solving the Clustering Reasoning Problems by Modeling a Deep-Learning-Based Probabilistic Model [1.7955614278088239]
我々は,Bongard-Logoで高い推論精度を実現する深層学習に基づく確率モデルであるPMoCを紹介する。
PMoCは視覚的抽象的推論において比較的弱い確率論的アプローチを再活性化する。
論文 参考訳(メタデータ) (2024-03-05T18:08:29Z) - Multi-modal Causal Structure Learning and Root Cause Analysis [67.67578590390907]
根本原因局所化のためのマルチモーダル因果構造学習手法であるMulanを提案する。
ログ選択言語モデルを利用してログ表現学習を行い、ログシーケンスを時系列データに変換する。
また、モダリティの信頼性を評価し、最終因果グラフを共同学習するための新しいキーパフォーマンスインジケータ対応アテンション機構も導入する。
論文 参考訳(メタデータ) (2024-02-04T05:50:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。