論文の概要: Deep Literature Survey Automation with an Iterative Workflow
- arxiv url: http://arxiv.org/abs/2510.21900v1
- Date: Fri, 24 Oct 2025 14:41:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.695721
- Title: Deep Literature Survey Automation with an Iterative Workflow
- Title(参考訳): 反復的ワークフローによるDeep Literature Surveyの自動化
- Authors: Hongbo Zhang, Han Cui, Yidong Wang, Yijian Tian, Qi Guo, Cunxiang Wang, Jian Wu, Chiyu Song, Yue Zhang,
- Abstract要約: 我々のフレームワークは 再帰的なアウトライン生成に基づく 探索とコヒーレンスの両方を保証する
忠実な紙レベル接地を実現するため,各紙をその寄与,方法,発見に蒸留する紙カードを設計する。
確立されたトピックと新興トピックの両方の実験では、コンテンツカバレッジ、構造的コヒーレンス、引用品質の最先端のベースラインを大きく上回っている。
- 参考スコア(独自算出の注目度): 30.923568155892184
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic literature survey generation has attracted increasing attention, yet most existing systems follow a one-shot paradigm, where a large set of papers is retrieved at once and a static outline is generated before drafting. This design often leads to noisy retrieval, fragmented structures, and context overload, ultimately limiting survey quality. Inspired by the iterative reading process of human researchers, we propose \ours, a framework based on recurrent outline generation, in which a planning agent incrementally retrieves, reads, and updates the outline to ensure both exploration and coherence. To provide faithful paper-level grounding, we design paper cards that distill each paper into its contributions, methods, and findings, and introduce a review-and-refine loop with visualization enhancement to improve textual flow and integrate multimodal elements such as figures and tables. Experiments on both established and emerging topics show that \ours\ substantially outperforms state-of-the-art baselines in content coverage, structural coherence, and citation quality, while producing more accessible and better-organized surveys. To provide a more reliable assessment of such improvements, we further introduce Survey-Arena, a pairwise benchmark that complements absolute scoring and more clearly positions machine-generated surveys relative to human-written ones. The code is available at https://github.com/HancCui/IterSurvey\_Autosurveyv2.
- Abstract(参考訳): 自動文献調査生成は注目されているが,既存のシステムの多くは,大量の論文を一度に回収し,起草前に静的なアウトラインを生成する,ワンショットのパラダイムを踏襲している。
この設計は、しばしばノイズの多い検索、断片化された構造、コンテキスト過負荷をもたらし、究極的には調査品質を制限します。
人間の研究者の反復的な読解プロセスに着想を得て,計画エージェントが探索と一貫性の両立を保証するために輪郭を段階的に検索・読解・更新する,反復的輪郭生成に基づくフレームワークである‘ours’を提案する。
紙レベルでの忠実なグラウンド化を実現するため,各紙をコントリビューション,方法,発見に蒸留する紙カードを設計し,可視化機能を備えたレビュー・アンド・リファイン・ループを導入し,テキストフローを改善し,図形や表などのマルチモーダル要素を統合する。
確立されたトピックと新興トピックの両方の実験では、‘ours\はコンテンツカバレッジ、構造的コヒーレンス、引用品質において最先端のベースラインを大幅に上回り、よりアクセスしやすく、より組織化された調査を生み出している。
このような改善についてより信頼性の高い評価を行うために、絶対スコアを補完し、人手による調査に対して機械による調査をより明確に配置する、ペアワイズベンチマークであるSurvey-Arenaを導入する。
コードはhttps://github.com/HancCui/IterSurvey\_Autosurveyv2で公開されている。
関連論文リスト
- Scaling Beyond Context: A Survey of Multimodal Retrieval-Augmented Generation for Document Understanding [61.36285696607487]
文書理解は、財務分析から科学的発見への応用に不可欠である。
現在のアプローチでは、OCRベースのパイプラインがLarge Language Models(LLM)やネイティブのMultimodal LLMs(MLLM)に制限されている。
Retrieval-Augmented Generation (RAG)は、外部データの基底モデルを支援するが、文書のマルチモーダルな性質は、テキスト、テーブル、チャート、レイアウトを組み合わせることで、より高度なパラダイムを必要とする。
論文 参考訳(メタデータ) (2025-10-17T02:33:16Z) - SurveyG: A Multi-Agent LLM Framework with Hierarchical Citation Graph for Automated Survey Generation [4.512335376984058]
大規模言語モデル(LLM)は、調査用紙の自動生成にますます採用されている。
LLMに基づくエージェントフレームワークである textbfSurveyG を提案する。
textbfFoundation、textbfDevelopment、textbfFrontierの3つのレイヤで構成されており、セミナルな作品から漸進的な進歩、新たな方向性までの研究の進化を捉えている。
論文 参考訳(メタデータ) (2025-10-09T03:14:20Z) - Meow: End-to-End Outline Writing for Automatic Academic Survey [24.749855249116802]
組織的かつ忠実なアウトラインを効率的に生成するフレームワークであるMeowを提案する。
まず、紙のメタデータから階層的なアウトラインを生成するエンドツーエンドのタスクとして、アウトラインを定式化する。
次に、arXiv、bioRxiv、medRxivからの高品質な調査データセットをキュレートし、アウトライン品質評価のための体系的な評価指標を確立する。
論文 参考訳(メタデータ) (2025-09-19T07:20:53Z) - WebWeaver: Structuring Web-Scale Evidence with Dynamic Outlines for Open-Ended Deep Research [73.58638285105971]
本稿では,AIエージェントが膨大なWebスケール情報を洞察に富むレポートに合成しなければならない複雑な課題であるtextbfopen-ended Deep Research (OEDR) に取り組む。
人間の研究プロセスをエミュレートする新しいデュアルエージェントフレームワークである textbfWebWeaver を紹介する。
私たちのフレームワークは、DeepResearch Bench、DeepConsult、DeepResearchGymなど、主要なOEDRベンチマークにまたがる最先端の新たなベンチマークを確立しています。
論文 参考訳(メタデータ) (2025-09-16T17:57:21Z) - SurveyGen-I: Consistent Scientific Survey Generation with Evolving Plans and Memory-Guided Writing [4.1851807186568735]
SurveyGen-Iは、粗大な検索、適応計画、メモリ誘導生成を組み合わせた自動サーベイ生成フレームワークである。
4つの科学的領域にわたる実験では、SurveyGen-Iはコンテンツ品質、一貫性、引用カバレッジにおいて、従来よりも一貫して優れていた。
論文 参考訳(メタデータ) (2025-08-20T00:03:46Z) - PRISM: Fine-Grained Paper-to-Paper Retrieval with Multi-Aspect-Aware Query Optimization [61.783280234747394]
PRISMは文書から文書への検索手法であり、クエリと候補文書の両方に対して、複数のきめ細かい表現を導入している。
SciFullBenchは、クエリと候補の両方のフルペーパーの完全かつセグメンテーションされたコンテキストが利用できる新しいベンチマークである。
実験の結果、PRISMは既存の検索基準よりも平均4.3%性能が向上した。
論文 参考訳(メタデータ) (2025-07-14T08:41:53Z) - SurveyForge: On the Outline Heuristics, Memory-Driven Generation, and Multi-dimensional Evaluation for Automated Survey Writing [13.101632066188532]
本研究では,人間の記述したアウトラインの論理構造を解析し,アウトラインを生成するサーベイサーベイForgeを紹介する。
総合的な評価を実現するために,100件の人書き調査論文を含むSurveyBenchを構築した。
実験では、SurveyはAutoSurveyのような以前の作業より優れていることが示されている。
論文 参考訳(メタデータ) (2025-03-06T17:15:48Z) - TrustRAG: An Information Assistant with Retrieval Augmented Generation [73.84864898280719]
TrustRAGは、インデックス付け、検索、生成という3つの視点から、acRAGを強化する新しいフレームワークである。
我々はTrustRAGフレームワークをオープンソース化し、抜粋ベースの質問応答タスク用に設計されたデモスタジオを提供する。
論文 参考訳(メタデータ) (2025-02-19T13:45:27Z) - Summarization with Graphical Elements [55.5913491389047]
本稿では,グラフィカル要素による要約という新しい課題を提案する。
タスクの研究を支援するために,高品質なラベル付きデータセットを収集する。
論文 参考訳(メタデータ) (2022-04-15T17:16:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。