論文の概要: Meow: End-to-End Outline Writing for Automatic Academic Survey
- arxiv url: http://arxiv.org/abs/2509.19370v1
- Date: Fri, 19 Sep 2025 07:20:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.520743
- Title: Meow: End-to-End Outline Writing for Automatic Academic Survey
- Title(参考訳): Meow: 自動アカデミックサーベイのためのアウトライン作成
- Authors: Zhaoyu Ma, Yuan Shan, Jiahao Zhao, Nan Xu, Lei Wang,
- Abstract要約: 組織的かつ忠実なアウトラインを効率的に生成するフレームワークであるMeowを提案する。
まず、紙のメタデータから階層的なアウトラインを生成するエンドツーエンドのタスクとして、アウトラインを定式化する。
次に、arXiv、bioRxiv、medRxivからの高品質な調査データセットをキュレートし、アウトライン品質評価のための体系的な評価指標を確立する。
- 参考スコア(独自算出の注目度): 24.749855249116802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As academic paper publication numbers grow exponentially, conducting in-depth surveys with LLMs automatically has become an inevitable trend. Outline writing, which aims to systematically organize related works, is critical for automated survey generation. Yet existing automatic survey methods treat outline writing as mere workflow steps in the overall pipeline. Such template-based workflows produce outlines that lack in-depth understanding of the survey topic and fine-grained styles. To address these limitations, we propose Meow, the first metadata-driven outline writing framework that produces organized and faithful outlines efficiently. Specifically, we first formulate outline writing as an end-to-end task that generates hierarchical structured outlines from paper metadata. We then curate a high-quality dataset of surveys from arXiv, bioRxiv, and medRxiv, and establish systematic evaluation metrics for outline quality assessment. Finally, we employ a two-stage training approach combining supervised fine-tuning and reinforcement learning. Our 8B reasoning model demonstrates strong performance with high structural fidelity and stylistic coherence.
- Abstract(参考訳): 学術論文の発行数が指数関数的に増加するにつれて、LSMによる詳細な調査が自動的に実施されることは避けられない傾向にある。
関連作業の体系的整理を目的としたアウトラインライティングは,自動サーベイ生成に不可欠である。
しかし、既存の自動調査手法は、パイプライン全体のワークフローステップとしてアウトライン書き込みを扱います。
このようなテンプレートベースのワークフローは、調査トピックときめ細かいスタイルの詳細な理解が欠けているアウトラインを生成する。
これらの制約に対処するため、我々は、組織的で忠実なアウトラインを効率的に生成する最初のメタデータ駆動のアウトライン記述フレームワークであるMeowを提案する。
具体的には、まず、紙メタデータから階層的なアウトラインを生成するエンドツーエンドのタスクとして、アウトラインを定式化する。
次に、arXiv、bioRxiv、medRxivからの高品質な調査データセットをキュレートし、アウトライン品質評価のための体系的な評価指標を確立する。
最後に、教師付き微調整と強化学習を組み合わせた2段階の訓練手法を用いる。
我々の8B推論モデルは、高い構造的忠実度とスタイリスティックなコヒーレンスで強い性能を示す。
関連論文リスト
- Benchmarking Computer Science Survey Generation [18.844790013427282]
SurGE(Survey Generation Evaluation)は、コンピュータサイエンス領域における科学的サーベイ生成を評価するための新しいベンチマークである。
SurGEは,(1)トピック記述,専門家による調査,および参照参照の完全なセットを含む一連のテストインスタンスと,(2)検索プールとして機能する100万以上の論文からなる大規模学術コーパスから構成される。
さらに,情報カバレッジ,参照精度,構造組織,コンテンツ品質の4次元にわたる自動評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-21T15:45:10Z) - Let's Use ChatGPT To Write Our Paper! Benchmarking LLMs To Write the Introduction of a Research Paper [64.50822834679101]
SciIGは、タイトル、抽象、および関連する作品からコヒーレントな紹介を生成するLLMの能力を評価するタスクである。
オープンソース (DeepSeek-v3, Gemma-3-12B, LLaMA 4-Maverick, MistralAI Small 3.1) およびクローズドソース GPT-4o システムを含む5つの最先端モデルを評価する。
結果は、特に意味的類似性と忠実性において、ほとんどのメトリクスにおいて、LLaMA-4 Maverickの優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-08-19T21:11:11Z) - AutoRev: Automatic Peer Review System for Academic Research Papers [9.269282930029856]
AutoRevは学術研究論文の自動ピアレビューシステムである。
私たちのフレームワークは学術文書をグラフとして表現し、最も重要なパスの抽出を可能にします。
レビュー生成に適用すると、平均58.72%のSOTAベースラインを上回ります。
論文 参考訳(メタデータ) (2025-05-20T13:59:58Z) - Graphy'our Data: Towards End-to-End Modeling, Exploring and Generating Report from Raw Data [5.752510084651565]
Graphyは、データモデリング、探索、高品質なレポート生成を自動化するエンドツーエンドプラットフォームである。
文献調査のシナリオをどのように促進するかを示す,5万を越える論文(参考資料を含む)の事前スクラップグラフを紹介します。
論文 参考訳(メタデータ) (2025-02-24T06:10:49Z) - Integrating Planning into Single-Turn Long-Form Text Generation [66.08871753377055]
長文コンテンツを生成するための計画案を提案する。
私たちの主な新規性は、複数のプロンプトや計画のラウンドを必要としない単一の補助的なタスクにあります。
実験では,LLMを補助タスクで微調整し,高品質な文書を生成する,異なる領域からの2つのデータセットを実証した。
論文 参考訳(メタデータ) (2024-10-08T17:02:40Z) - Taxonomy Tree Generation from Citation Graph [15.188580557890942]
HiGTLは、人為的な指示や好みのトピックによってガイドされる、新しいエンドツーエンドフレームワークである。
我々は,各クラスタに中心的な概念を反復的に生成する,新しい分類ノード言語化戦略を開発した。
実験により、HiGTLはコヒーレントで高品質な概念を効果的に生成することが示された。
論文 参考訳(メタデータ) (2024-10-02T13:02:03Z) - The Power of Summary-Source Alignments [62.76959473193149]
多文書要約(MDS)は難しい課題であり、しばしばサリエンスと冗長性検出のサブタスクに分解される。
参照要約とそのソース文書間の対応する文のアライメントを利用して、トレーニングデータを生成する。
本稿では,よりきめ細かな提案スパンレベルで適用することで,要約ソースアライメントフレームワークを拡張することを提案する。
論文 参考訳(メタデータ) (2024-06-02T19:35:19Z) - Decoding the End-to-end Writing Trajectory in Scholarly Manuscripts [7.294418916091011]
そこで本研究では,意図,著作者行動,および記述データの情報タイプに応じて,学術的な記述行動の分類を行う新しい分類法を提案する。
学術論文の分類学は,認知書記理論に動機付けられ,一般的な書記の流れを辿るために,分類のレベルが3つ含まれている。
ManuScriptは、書道の直線性と非直線性を捉えることによって、学術的な書道の完全な図面を提供する。
論文 参考訳(メタデータ) (2023-03-31T20:33:03Z) - Automated Concatenation of Embeddings for Structured Prediction [75.44925576268052]
本稿では, 埋め込みの自動結合(ACE)を提案し, 構造予測タスクにおける埋め込みのより優れた結合を見つけるプロセスを自動化する。
我々は、強化学習の戦略に従い、制御器のパラメータを最適化し、タスクモデルの精度に基づいて報酬を計算する。
論文 参考訳(メタデータ) (2020-10-10T14:03:20Z) - Summary-Source Proposition-level Alignment: Task, Datasets and
Supervised Baseline [94.0601799665342]
資料の参照要約における文のアライメントは,補助的な要約作業として有用であった。
本稿では,2つの重要な新機能を導入しながら,要約ソースアライメントを明示的なタスクとして確立することを提案する。
我々は提案レベルのアライメントのための新しいトレーニングデータセットを作成し、利用可能な要約評価データから自動的に抽出する。
教師なしアプローチよりも優れたアライメント品質を示す教師付き命題アライメントベースラインモデルを提案する。
論文 参考訳(メタデータ) (2020-09-01T17:27:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。