論文の概要: Magellan: Guided MCTS for Latent Space Exploration and Novelty Generation
- arxiv url: http://arxiv.org/abs/2510.21341v1
- Date: Fri, 24 Oct 2025 11:09:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.445472
- Title: Magellan: Guided MCTS for Latent Space Exploration and Novelty Generation
- Title(参考訳): Magellan: 遅延宇宙探査と新規生成のためのガイドMCTS
- Authors: Lufan Chang,
- Abstract要約: 大きな言語モデル(LLM)は、しばしば真に革新的なアイデアを生み出すのに苦労します。
textbfMagellanは、創造的生成を原則的なガイド付き探索として再構成する新しいフレームワークである。
我々の研究は、創造的発見にとって、原則化されたガイド付き検索は制約のない機関よりも効果的であることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) often struggle with generating truly innovative ideas, typically defaulting to high-probability, familiar concepts within their training data's "gravity wells." While advanced search-based methods like Tree of Thoughts (ToT) attempt to mitigate this, they are fundamentally limited by their reliance on unprincipled, inconsistent self-evaluation heuristics to guide exploration. To address this gap, we introduce \textbf{Magellan}, a novel framework that reframes creative generation as a principled, guided exploration of an LLM's latent conceptual space. At its core, Magellan employs Monte Carlo Tree Search (MCTS) governed by a hierarchical guidance system. For long-range direction, a "semantic compass" vector, formulated via orthogonal projection, steers the search towards relevant novelty. For local, step-by-step decisions, a landscape-aware value function replaces flawed self-evaluation with an explicit reward structure that balances intrinsic coherence, extrinsic novelty, and narrative progress. Extensive experiments demonstrate that Magellan significantly outperforms strong baselines, including ReAct and ToT, in generating scientific ideas with superior plausibility and innovation. Our work shows that for creative discovery, a principled, guided search is more effective than unconstrained agency, paving the way for LLMs to become more capable partners in innovation.
- Abstract(参考訳): 大きな言語モデル(LLM)は、しばしば真に革新的なアイデアを生み出すのに苦労する。
Tree of Thoughts (ToT)のような先進的な検索ベースの手法は、これを緩和しようとするが、これらの手法は原則的でない、一貫性のない自己評価ヒューリスティックに依存しているため、基本的に制限されている。
このギャップに対処するために, LLMの潜在概念空間の探索を指針とした, 創造的生成を原則的, ガイド的に再構成する新しいフレームワークである \textbf{Magellan} を紹介した。
マゼランはモンテカルロ・ツリー・サーチ(MCTS)を採用しており、階層的な誘導システムによって管理されている。
長距離方向に対しては、直交射影を通して定式化された「意味コンパス」ベクトルが、関連する新規性に向かって探索を行う。
局所的、ステップバイステップの決定において、ランドスケープ・アウェアの値関数は、欠陥のある自己評価を、固有のコヒーレンス、外在的ノベルティ、物語の進歩のバランスをとる明示的な報酬構造に置き換える。
大規模な実験により、マゼランはReActやToTを含む強力なベースラインを著しく上回り、優れた妥当性と革新を持った科学的アイデアを生み出すことが示されている。
我々の研究は、創造的な発見のために、原則化されたガイド付き検索は、制約のない機関よりも効果的であり、LLMがイノベーションにおいてより有能なパートナーになるための道を開くことを示しています。
関連論文リスト
- Count Counts: Motivating Exploration in LLM Reasoning with Count-based Intrinsic Rewards [33.42935710088259]
MERCI(Motivating Exploration in LLM Reasoning with Count-based Intrinsic Rewards)を導入する。
MERCIは、より豊かで多様な思考の連鎖を促進し、強力なベースラインよりも性能を著しく向上させ、より優れたソリューションを見つけるために、ローカルルーチンから逃れるのに役立ちます。
論文 参考訳(メタデータ) (2025-10-18T18:57:26Z) - Harnessing Large Language Models for Scientific Novelty Detection [49.10608128661251]
科学的ノベルティ検出(ND)のための大規模言語モデル(LLM)を提案する。
そこで本研究では,LLMからアイデアレベルの知識を抽出し,ライトウェイトなレトリバーを訓練することを提案する。
実験の結果,提案手法は,アイデア検索やNDタスクのためのベンチマークデータセットにおいて,常に他よりも優れていた。
論文 参考訳(メタデータ) (2025-05-30T14:08:13Z) - MCTS-RAG: Enhancing Retrieval-Augmented Generation with Monte Carlo Tree Search [61.11836311160951]
本稿では,知識集約型タスクにおける小言語モデルの推論能力を高める新しいアプローチであるMCTS-RAGを紹介する。
通常、推論から独立して情報を取得する標準的なRAG法とは異なり、MCTS-RAGは構造化推論と適応的検索を組み合わせる。
この統合されたアプローチは意思決定を強化し、幻覚を減らし、事実の正確性と応答の整合性を向上させる。
論文 参考訳(メタデータ) (2025-03-26T17:46:08Z) - A Survey on Post-training of Large Language Models [185.51013463503946]
大規模言語モデル(LLM)は、自然言語処理を根本的に変革し、会話システムから科学的探索まで、さまざまな領域で欠かせないものにしている。
これらの課題は、制限された推論能力、倫理的不確実性、最適なドメイン固有のパフォーマンスといった欠点に対処するために、先進的な訓練後言語モデル(PoLM)を必要とする。
本稿では,タスク固有の精度を向上するファインチューニング,倫理的コヒーレンスと人間の嗜好との整合性を保証するアライメント,報酬設計の課題によらず多段階の推論を進める推論,統合と適応の5つのパラダイムを体系的に追跡したPoLMの総合的な調査について述べる。
論文 参考訳(メタデータ) (2025-03-08T05:41:42Z) - CoAT: Chain-of-Associated-Thoughts Framework for Enhancing Large Language Models Reasoning [0.7009487789080343]
CoAT(Chain-of-Associated-Thoughts)フレームワークは、思考中の知識を常に関連付け、補う能力にインスパイアされている。
MCTSの構造化探索能力と連想メモリの適応学習能力を組み合わせることで、CoATはLLM検索空間を大幅に拡張する。
CoATは、オープンソースのマルチホップ推論データセットで10%以上のパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2025-02-04T15:10:33Z) - A Causality-aware Paradigm for Evaluating Creativity of Multimodal Large Language Models [100.16387798660833]
オオギリゲーム(オオギリゲーム)は、ユーモアと連想的思考を必要とする創造的な仕事である。
LoTbenchはインタラクティブで因果性を考慮した評価フレームワークである。
その結果、ほとんどのLLMは制約された創造性を示すが、LLMと人間の間の性能格差は克服できないことがわかった。
論文 参考訳(メタデータ) (2025-01-25T09:11:15Z) - RAG-Star: Enhancing Deliberative Reasoning with Retrieval Augmented Verification and Refinement [85.08223786819532]
既存の大規模言語モデル(LLM)は、例外的な問題解決能力を示すが、複雑な推論タスクに苦労する可能性がある。
検索情報を統合した新しいRAG手法である textbfRAG-Star を提案する。
Llama-3.1-8B-Instruct と GPT-4o を併用した実験により,RAG-Star は従来のRAG と推理法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2024-12-17T13:05:36Z) - Nova: An Iterative Planning and Search Approach to Enhance Novelty and Diversity of LLM Generated Ideas [30.3756058589173]
我々は,大規模言語モデル(LLM)の創造的可能性を高めるために,拡張計画と探索手法を導入する。
我々の枠組みは、特に新規性と多様性において、生成したアイデアの質を大幅に高める。
本手法は,スイスのトーナメント評価において,170枚のシード論文に基づいて,少なくとも2.5倍以上の上位のアイデアを生成する。
論文 参考訳(メタデータ) (2024-10-18T08:04:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。