論文の概要: MVSS: A Unified Framework for Multi-View Structured Survey Generation
- arxiv url: http://arxiv.org/abs/2601.09504v1
- Date: Wed, 14 Jan 2026 14:11:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.424583
- Title: MVSS: A Unified Framework for Multi-View Structured Survey Generation
- Title(参考訳): MVSS:マルチビュー構造化サーベイ生成のための統一フレームワーク
- Authors: Yinqi Liu, Yueqi Zhu, Yongkang Zhang, Xinfeng Li, Feiran Liu, Yufei Sun, Xin Wang, Renzhao Liang, Yidong Wang, Cunxiang Wang,
- Abstract要約: マルチビュー構造化サーベイ生成フレームワークであるMVSSを提案する。
引用接地された階層木、構造化比較表、およびサーベイテキストを生成し、調整する。
76のコンピュータサイエンスに関する実験では、MVSSは組織や根拠における既存の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 22.149843949044712
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scientific surveys require not only summarizing large bodies of literature, but also organizing them into clear and coherent conceptual structures. Existing automatic survey generation methods typically focus on linear text generation and struggle to explicitly model hierarchical relations among research topics and structured methodological comparisons, resulting in gaps in structural organization compared to expert-written surveys. We propose MVSS, a multi-view structured survey generation framework that jointly generates and aligns citation-grounded hierarchical trees, structured comparison tables, and survey text. MVSS follows a structure-first paradigm: it first constructs a conceptual tree of the research domain, then generates comparison tables constrained by the tree, and finally uses both as structural constraints for text generation. This enables complementary multi-view representations across structure, comparison, and narrative. We introduce an evaluation framework assessing structural quality, comparative completeness, and citation fidelity. Experiments on 76 computer science topics show MVSS outperforms existing methods in organization and evidence grounding, achieving performance comparable to expert surveys.
- Abstract(参考訳): 科学的調査では、大きな文献を要約するだけでなく、それらを明確で一貫性のある概念構造に整理する必要がある。
既存の自動サーベイ生成手法は、典型的には線形テキスト生成に焦点をあて、研究トピックと構造化された方法論比較の間の階層的関係を明示的にモデル化するのに苦労する。
提案するMVSSは,複数ビューで構成されたサーベイ生成フレームワークで,引用接地型階層木,構造化比較表,およびサーベイテキストを共同で生成・調整する。
MVSSはまず研究領域の概念木を構築し、次に木によって制約された比較表を生成し、最終的にテキスト生成のための構造的制約として使用する。
これにより、構造、比較、物語にまたがる相補的な多視点表現が可能になる。
構造的品質, 比較完全性, 引用忠実度を評価するための評価フレームワークを提案する。
76のコンピュータサイエンストピックの実験では、MVSSは組織における既存の手法よりも優れており、根拠となり、専門家による調査に匹敵するパフォーマンスを達成している。
関連論文リスト
- Structure-R1: Dynamically Leveraging Structural Knowledge in LLM Reasoning through Reinforcement Learning [29.722512436773638]
本稿では,検索したコンテンツを推論に最適化した構造化表現に変換するフレームワークであるtextscStructure-R1を提案する。
textscStructure-R1は、7Bスケールのバックボーンモデルとの競合性能を一貫して達成していることを示す。
我々の理論的分析は,情報密度と文脈的明瞭度を向上させることによって,構造化表現が推論をいかに促進するかを示す。
論文 参考訳(メタデータ) (2025-10-16T23:19:28Z) - SurveyG: A Multi-Agent LLM Framework with Hierarchical Citation Graph for Automated Survey Generation [4.512335376984058]
大規模言語モデル(LLM)は、調査用紙の自動生成にますます採用されている。
LLMに基づくエージェントフレームワークである textbfSurveyG を提案する。
textbfFoundation、textbfDevelopment、textbfFrontierの3つのレイヤで構成されており、セミナルな作品から漸進的な進歩、新たな方向性までの研究の進化を捉えている。
論文 参考訳(メタデータ) (2025-10-09T03:14:20Z) - Context-Aware Hierarchical Taxonomy Generation for Scientific Papers via LLM-Guided Multi-Aspect Clustering [59.54662810933882]
既存の分類体系の構築手法は、教師なしクラスタリングや大きな言語モデルの直接的プロンプトを利用しており、コヒーレンスと粒度の欠如が多かった。
LLM誘導型マルチアスペクト符号化と動的クラスタリングを統合したコンテキスト対応階層型階層型分類生成フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-23T15:12:58Z) - Beyond Chunking: Discourse-Aware Hierarchical Retrieval for Long Document Question Answering [51.7493726399073]
本稿では,長文質問応答を改善するための対話型階層型フレームワークを提案する。
このフレームワークには3つの重要な革新がある: 長文の専門的な談話解析、LLMに基づく談話関係ノードの拡張、構造誘導階層検索である。
論文 参考訳(メタデータ) (2025-05-26T14:45:12Z) - Mixture of Structural-and-Textual Retrieval over Text-rich Graph Knowledge Bases [78.62158923194153]
テキストリッチなグラフ知識ベース(TG-KB)は、テキストおよび構造的知識を提供することで、クエリに応答する上でますます重要になっている。
本研究では,これら2種類の知識を計画・推論・組織化フレームワークを用いて検索するための構造・テキスト検索(MoR)の混合を提案する。
論文 参考訳(メタデータ) (2025-02-27T17:42:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。