論文の概要: Bridging Social Psychology and LLM Reasoning: Conflict-Aware Meta-Review Generation via Cognitive Alignment
- arxiv url: http://arxiv.org/abs/2503.13879v2
- Date: Fri, 21 Mar 2025 07:36:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 13:34:24.06669
- Title: Bridging Social Psychology and LLM Reasoning: Conflict-Aware Meta-Review Generation via Cognitive Alignment
- Title(参考訳): 社会的心理学のブリッジングとLLM推論:認知的アライメントによる対立意識のメタレビュー生成
- Authors: Wei Chen, Han Ding, Meng Yuan, Zhao Zhang, Deqing Wang, Fuzhen Zhuang,
- Abstract要約: 大規模言語モデル(LLM)は、原稿批評の自動化において有望であることを示す。
既存の方法は、異なる意見の中で矛盾する視点を扱うのに失敗する。
本稿では,LLMを適応的な科学的調停器に変換する2プロセスアーキテクチャであるCognitive Alignment Framework(CAF)を提案する。
- 参考スコア(独自算出の注目度): 35.82355113500509
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid growth of scholarly submissions has overwhelmed traditional peer review systems, driving the need for intelligent automation to preserve scientific rigor. While large language models (LLMs) show promise in automating manuscript critiques, their ability to synthesize high-stakes meta-reviews, which require conflict-aware reasoning and consensus derivation, remains underdeveloped. Existing methods fail to effectively handle conflicting viewpoints within differing opinions, and often introduce additional cognitive biases, such as anchoring effects and conformity bias.To overcome these limitations, we propose the Cognitive Alignment Framework (CAF), a dual-process architecture that transforms LLMs into adaptive scientific arbitrators. By operationalizing Kahneman's dual-process theory, CAF introduces a three-step cognitive pipeline: review initialization, incremental integration, and cognitive alignment.Empirical validation shows that CAF outperforms existing LLM-based methods, with sentiment consistency gains reaching up to 19.47\% and content consistency improving by as much as 12.95\%.
- Abstract(参考訳): 学術論文の急速な増加は、従来の査読システムに圧倒され、科学的厳格性を維持するためのインテリジェントな自動化の必要性が強まった。
大規模言語モデル(LLM)は、原稿評論の自動化を約束する一方で、対立認識の推論とコンセンサス導出を必要とするハイテイクなメタレビューを合成する能力は未発達のままである。
既存の手法では,異なる意見の中で矛盾する視点を効果的に扱うことができず,また,これらの制約を克服するために,LLMを適応科学的調停器に変換する2プロセスアーキテクチャであるCognitive Alignment Framework(CAF)を提案する。
カフネマンの二重プロセス理論を運用することにより、CAFは3段階の認知パイプラインを導入し、初期化、漸進的な統合、認知アライメントをレビューする。
関連論文リスト
- A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - Cognitive Debiasing Large Language Models for Decision-Making [71.2409973056137]
大規模言語モデル(LLM)は意思決定アプリケーションをサポートする可能性を示している。
本稿では,LLMの信頼性を高める自己脱バイアスという認知的脱バイアス手法を提案する。
我々の手法は、3つの逐次的なステップ – バイアス決定、バイアス分析、認知バイアス ― に従うことで、プロンプトにおける潜在的な認知バイアスを反復的に緩和する。
論文 参考訳(メタデータ) (2025-04-05T11:23:05Z) - Does "Reasoning" with Large Language Models Improve Recognizing, Generating, and Reframing Unhelpful Thoughts? [22.202600416432386]
認知的リフレーミング(Cognitive Reframing)は、ポジティブな意味を見出すことによって、ネガティブな経験を再解釈するのに役立つ。
近年のLarge Language Models (LLMs) の進歩は、推論に基づく戦略による性能向上を実証している。
これにより、LCMの推論能力を活用してCBTとメンタルリフレーミングを改善するという、有望な方向性がもたらされる。
論文 参考訳(メタデータ) (2025-03-31T19:19:34Z) - How Metacognitive Architectures Remember Their Own Thoughts: A Systematic Review [16.35521789216079]
計算メタ認知アーキテクチャ(CMA)がどのようにしてメタ認知経験をモデル化し、保存し、記憶し、処理するかをレビューする。
基礎となる心理学理論から収集データの内容と構造、使用するアルゴリズムや評価結果まで、さまざまな側面を考察する。
論文 参考訳(メタデータ) (2025-02-28T08:48:41Z) - Unlocking Structured Thinking in Language Models with Cognitive Prompting [0.0]
大規模言語モデル(LLM)における問題解決を導く新しいアプローチとして認知的プロンプトを提案する。
本稿では,認知操作の決定論的シーケンス,自己適応型,ハイブリッド型という3つの変種を紹介する。
LLaMA, Gemma2, Qwenの各モデルの算術的推論ベンチマークGSM8Kにおける実験により、認知的プロンプトは標準的な質問応答に比べて性能が大幅に向上することが示された。
論文 参考訳(メタデータ) (2024-10-03T19:53:47Z) - Critic-CoT: Boosting the reasoning abilities of large language model via Chain-of-thoughts Critic [48.94340387130627]
Critic-CoTは、LLMをSystem-2のような批判能力にプッシュするフレームワークである。
人間のアノテーションを使わずにCoT推論パラダイムと遠隔スーパービジョンデータの自動構築
GSM8KとMATHの実験は、我々の強化されたモデルがタスク解決性能を大幅に向上させることを示した。
論文 参考訳(メタデータ) (2024-08-29T08:02:09Z) - MR-Ben: A Meta-Reasoning Benchmark for Evaluating System-2 Thinking in LLMs [55.20845457594977]
大規模言語モデル(LLM)は、問題解決と意思決定の能力の向上を示している。
本稿ではメタ推論技術を必要とするプロセスベースのベンチマークMR-Benを提案する。
メタ推論のパラダイムは,システム2のスロー思考に特に適しています。
論文 参考訳(メタデータ) (2024-06-20T03:50:23Z) - Metacognitive Retrieval-Augmented Large Language Models [43.57020180706832]
本稿ではメタRAG(MetaRAG)について紹介する。
これを統合することで、MetaRAGはモデルが応答戦略を監視し、評価し、計画することを可能にする。
経験的評価は、MetaRAGが既存の手法よりも著しく優れていることを示している。
論文 参考訳(メタデータ) (2024-02-18T15:41:31Z) - MR-GSM8K: A Meta-Reasoning Benchmark for Large Language Model Evaluation [60.65820977963331]
大規模言語モデル(LLM)のための新しい評価パラダイムを導入する。
このパラダイムは、しばしば推論プロセスを無視する結果指向の評価から、より包括的な評価へと重点を移す。
GSM8Kデータセットにこのパラダイムを適用し,MR-GSM8Kベンチマークを開発した。
論文 参考訳(メタデータ) (2023-12-28T15:49:43Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。