論文の概要: Roundtable Policy: Improving Scientific Reasoning and Narratives through Confidence-Weighted Consensus of LLMs
- arxiv url: http://arxiv.org/abs/2509.16839v1
- Date: Sat, 20 Sep 2025 23:31:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.000432
- Title: Roundtable Policy: Improving Scientific Reasoning and Narratives through Confidence-Weighted Consensus of LLMs
- Title(参考訳): ラウンドテーブル政策 : LLMの信頼度による科学的推論と物語の改善
- Authors: Yu Yao, Jiayi Dong, Ju Li, Yang Yang, Yilun Du,
- Abstract要約: 本稿では,多言語モデル(LLM)の重み付けによる推論を行う補完的推論時間推論フレームワークであるラウンドテーブルポリシーを紹介する。
本研究は, 複雑な異種科学課題における推論を著しく向上させ, 創造性, 厳密性, 論理コヒーレンスの観点から科学的物語を改善することを示唆する。
提案手法は,ブラックボックスアクセスと統一手順のみを必要としながら,不透明な収束よりも構造的,解釈可能なコンセンサスを強調する。
- 参考スコア(独自算出の注目度): 44.65081087151887
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have demonstrated remarkable capabilities not only in language generation but also in advancing scientific discovery. A growing body of work has explored ways to improve their reasoning, from self-consistency and chain-of-thought to multi-agent debate. Inspired by the dynamics of scientific committees and the "Society of Mind," we introduce Roundtable Policy, a complementary inference-time reasoning framework that performs inference through the weighted consensus of multiple LLMs. Our findings indicate that this approach significantly enhances reasoning in complex heterogeneous scientific tasks and improves scientific narratives in terms of creativity, rigor, and logical coherence, while reducing hallucinations that single models are prone to. Our approach emphasizes structured and interpretable consensus rather than opaque convergence, while requiring only black-box access and uniform procedures, making it broadly applicable to multi-LLM reasoning.
- Abstract(参考訳): 大規模言語モデル(LLM)は、言語生成だけでなく、科学的発見の進展にも顕著な能力を示した。
成長する研究機関は、自己整合性やチェーンオブ思考からマルチエージェントの議論まで、彼らの推論を改善する方法を模索してきた。
科学委員会と「心の社会」のダイナミクスに触発され、複数のLSMの重み付けされたコンセンサスを通じて推論を行う補完的推論時間推論フレームワークであるラウンドテーブル・ポリシーを導入する。
本研究は, 複雑な異種科学課題における推論を著しく向上させ, 創造性, 厳密性, 論理的コヒーレンスの観点から科学的物語を改善するとともに, 単一モデルが好む幻覚の低減を図った。
提案手法は,ブラックボックスアクセスと統一手順のみを必要とする一方,不透明収束よりも構造的,解釈可能なコンセンサスを重視し,マルチLLM推論に広く適用可能である。
関連論文リスト
- Demystifying Scientific Problem-Solving in LLMs by Probing Knowledge and Reasoning [53.82037883518254]
SciReasは、科学的推論タスクのための様々なベンチマークスイートである。
次に、科学的タスクにおける推論と知識の異なる役割を研究するための探索フレームワークであるKRUXを提案する。
論文 参考訳(メタデータ) (2025-08-26T17:04:23Z) - Perception, Reason, Think, and Plan: A Survey on Large Multimodal Reasoning Models [79.52467430114805]
推論は知性の中心にあり、決定し、結論を導き、ドメインをまたいで一般化する能力を形成する。
人工知能において、システムがオープンで不確実でマルチモーダルな環境でますます機能するにつれて、推論は堅牢で適応的な行動を可能にするために不可欠となる。
大規模マルチモーダル推論モデル(LMRM)は、テキスト、画像、オーディオ、ビデオなどのモダリティを統合し、複雑な推論機能をサポートする、有望なパラダイムとして登場した。
論文 参考訳(メタデータ) (2025-05-08T03:35:23Z) - Advancing AI-Scientist Understanding: Multi-Agent LLMs with Interpretable Physics Reasoning [0.7499722271664147]
大規模言語モデル(LLM)は、記号操作、数値計算、科学的推論の支援によって物理学研究においてますます重要な役割を担っている。
我々は,3つの重要なモジュールを通じてAIと人間科学者の協調を促進する,新しい多エージェントLLM物理学者フレームワークを導入する。
ケーススタディでは,本手法が解釈可能性を大幅に向上し,体系的な検証が可能となり,物理問題解決と発見における人間とAIの連携が向上することを示した。
論文 参考訳(メタデータ) (2025-04-02T17:13:16Z) - Tree-of-Debate: Multi-Persona Debate Trees Elicit Critical Thinking for Scientific Comparative Analysis [27.745896682856092]
本稿では,科学論文をそれぞれの新奇性を議論するペルソナに変換するフレームワークであるTree-of-Debate(ToD)を紹介する。
ToDは議論ツリーを動的に構築し、学術論文の中で独立した新規性議論のきめ細かい分析を可能にする。
論文 参考訳(メタデータ) (2025-02-20T17:43:40Z) - Position: Multimodal Large Language Models Can Significantly Advance Scientific Reasoning [51.11965014462375]
MLLM(Multimodal Large Language Models)は、テキスト、画像、その他のモダリティを統合する。
本稿では,MLLMが数学,物理,化学,生物学などの分野にまたがる科学的推論を著しく前進させることができることを論じる。
論文 参考訳(メタデータ) (2025-02-05T04:05:27Z) - In Defence of Post-hoc Explainability [0.0]
我々は、科学AIにおけるポストホック解釈可能性の哲学的枠組みとして計算補間主義(CI)を紹介した。
ポストホック合理化が信頼性のあるパフォーマンスと共存する人間の専門知識と平行して描くことで、CIは経験的検証によって適切に拘束された場合、構造化されたモデル解釈を通じて科学的知識が生まれることを証明している。
論文 参考訳(メタデータ) (2024-12-23T06:22:03Z) - LLM and Simulation as Bilevel Optimizers: A New Paradigm to Advance Physical Scientific Discovery [141.39722070734737]
本稿では,大規模言語モデルの知識駆動型抽象推論能力をシミュレーションの計算力で強化することを提案する。
本稿では,2段階最適化フレームワークであるSGA(Scientific Generative Agent)を紹介する。
法発見と分子設計における枠組みの有効性を実証するための実験を行った。
論文 参考訳(メタデータ) (2024-05-16T03:04:10Z) - LLM Discussion: Enhancing the Creativity of Large Language Models via Discussion Framework and Role-Play [43.55248812883912]
大規模言語モデル(LLM)は自然言語処理において例外的な習熟度を示してきたが、しばしばオープンエンドの質問に対する創造的で独創的な応答を生成できない。
LLM議論は,アイデア交換の活発化と多様化を促進する3段階の議論フレームワークである。
提案手法の有効性を, 代替利用テスト, 類似性テスト, インスタンステスト, 科学的創造性テストを用いて評価した。
論文 参考訳(メタデータ) (2024-05-10T10:19:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。