論文の概要: MotivGraph-SoIQ: Integrating Motivational Knowledge Graphs and Socratic Dialogue for Enhanced LLM Ideation
- arxiv url: http://arxiv.org/abs/2509.21978v1
- Date: Fri, 26 Sep 2025 07:02:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.254113
- Title: MotivGraph-SoIQ: Integrating Motivational Knowledge Graphs and Socratic Dialogue for Enhanced LLM Ideation
- Title(参考訳): MotivGraph-SoIQ:LLMのアイデア強化のためのモチベーション知識グラフとソクラティック対話の統合
- Authors: Xinping Lei, Tong Zhou, Yubo Chen, Kang Liu, Jun Zhao,
- Abstract要約: 大規模言語モデル(LLM)は、学術的思考を加速させる大きな可能性を秘めている。
モチベーション・ナレッジグラフ(MotivGraph)とQ-Driven Socratic Ideatorを統合することを提案する。
MotivGraph-SoIQは、LCMベースのスコアリング、ELOランキング、人的評価指標にまたがる既存の最先端アプローチに対する明確なアドバンテージを示している。
- 参考スコア(独自算出の注目度): 18.854311664681212
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) hold substantial potential for accelerating academic ideation but face critical challenges in grounding ideas and mitigating confirmation bias for further refinement. We propose integrating motivational knowledge graphs and socratic dialogue to address these limitations in enhanced LLM ideation (MotivGraph-SoIQ). This novel framework provides essential grounding and practical idea improvement steps for LLM ideation by integrating a Motivational Knowledge Graph (MotivGraph) with a Q-Driven Socratic Ideator. The MotivGraph structurally stores three key node types(problem, challenge and solution) to offer motivation grounding for the LLM ideation process. The Ideator is a dual-agent system utilizing Socratic questioning, which facilitates a rigorous refinement process that mitigates confirmation bias and improves idea quality across novelty, experimental rigor, and motivational rationality dimensions. On the ICLR25 paper topics dataset, MotivGraph-SoIQ exhibits clear advantages over existing state-of-the-art approaches across LLM-based scoring, ELO ranking, and human evaluation metrics.
- Abstract(参考訳): 大規模言語モデル(LLM)は、学術的思考を加速させる大きな可能性を秘めているが、アイデアを基礎にし、さらなる洗練のために確認バイアスを緩和する上で重要な課題に直面している。
モチベーション・ナレッジグラフとソクラティック・ダイアログを統合して,これらの制限に対処する(MotivGraph-SoIQ)。
このフレームワークは、モチベーション・ナレッジグラフ(Motivational Knowledge Graph, MotivGraph)とQ-Driven Socratic Ideatorを統合することで、LLM構想に不可欠な基礎と実践的なアイデア改善ステップを提供する。
MotivGraphは3つのキーノードタイプ(プロブレム、チャレンジ、ソリューション)を構造的に格納し、LCMの構想プロセスのモチベーション基盤を提供する。
イデオレーターはソクラテス的質問(Socratic questioning)を利用した二重エージェントシステムであり、確認バイアスを緩和し、新規性、実験的厳格性、モチベーション的合理性次元を越えてアイデア品質を改善する厳格な改善プロセスを促進する。
ICLR25の論文トピックデータセットで、MotivGraph-SoIQは、LCMベースのスコアリング、ELOランキング、人的評価のメトリクスにまたがる既存の最先端アプローチに対して、明確なアドバンテージを示している。
関連論文リスト
- A Simple "Motivation" Can Enhance Reinforcement Finetuning of Large Reasoning Models [103.88578274567784]
MeRF(Motivation-enhanced Reinforcement Finetuning)は、大規模共振モデルの強化微調整を強化する直感的かつ効果的な方法である。
MeRFは報酬仕様を直接プロンプトに注入し、最適化目標を認識するためのコンテキスト内モチベーションとして機能する。
MeRFはRLVRベースラインよりもパフォーマンスが大幅に向上する。
論文 参考訳(メタデータ) (2025-06-23T10:37:57Z) - ReMA: Learning to Meta-think for LLMs with Multi-Agent Reinforcement Learning [53.817538122688944]
Reinforced Meta-thinking Agents (ReMA) を導入し,Large Language Models (LLMs) の推論からメタ思考行動を求める。
ReMAは、推論プロセスを2つの階層的なエージェントに分解する。戦略上の監視と計画を生成するハイレベルなメタ思考エージェントと、詳細な実行のための低レベルな推論エージェントである。
単ターン実験による実験結果から、ReMAは複雑な推論タスクにおいて単エージェントRLベースラインよりも優れることが示された。
論文 参考訳(メタデータ) (2025-03-12T16:05:31Z) - Graph-Augmented Reasoning: Evolving Step-by-Step Knowledge Graph Retrieval for LLM Reasoning [55.6623318085391]
最近の大規模言語モデル(LLM)推論は、限られたドメイン知識、幻覚への感受性、制約された推論深さに悩まされている。
本稿では、ステップワイズ知識グラフ検索とステップワイズ推論の統合に関する最初の研究について述べる。
本稿では,プロセス指向の知識グラフ構築を中心としたフレームワークであるKG-RAR,階層的検索戦略,検索後処理と報酬モデルを提案する。
論文 参考訳(メタデータ) (2025-03-03T15:20:41Z) - Iteration of Thought: Leveraging Inner Dialogue for Autonomous Large Language Model Reasoning [0.0]
反復的人間のエンゲージメントは、大規模言語モデル(LLM)の高度な言語処理能力を活用するための一般的かつ効果的な手段である。
思考の反復(IoT)フレームワークを提案する。
静的アプローチや半静的アプローチとは異なり、IoTは進化するコンテキストに基づいて推論パスを動的に適応する。
論文 参考訳(メタデータ) (2024-09-19T09:44:17Z) - HGOT: Hierarchical Graph of Thoughts for Retrieval-Augmented In-Context Learning in Factuality Evaluation [20.178644251662316]
本稿では,文脈内学習における関連する文節の検索を促進するために,階層的思考グラフ(HGOT)を導入する。
このフレームワークは、複雑なクエリを管理可能なサブクエリに分割する、分割/クエリ戦略を採用している。
それは、最近提案された引用リコールと精度の指標を取り入れた、回答の選択のための自己一貫性の過半数投票を洗練する。
論文 参考訳(メタデータ) (2024-02-14T18:41:19Z) - Re-Reading Improves Reasoning in Large Language Models [87.46256176508376]
既成のLarge Language Models (LLM) の推論能力を高めるため, 単純で汎用的で効果的なプロンプト手法であるRe2を導入する。
CoT (Chain-of-Thought) など、ほとんどの思考を刺激する手法とは異なり、Re2 は質問を2回処理することで入力に焦点を移し、理解プロセスを強化する。
提案手法の有効性と汎用性を検証するため,14のデータセットにまたがる広範囲な推論ベンチマークでRe2を評価した。
論文 参考訳(メタデータ) (2023-09-12T14:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。