論文の概要: XtraGPT: Context-Aware and Controllable Academic Paper Revision via Human-AI Collaboration
- arxiv url: http://arxiv.org/abs/2505.11336v2
- Date: Mon, 04 Aug 2025 14:42:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 14:07:56.786019
- Title: XtraGPT: Context-Aware and Controllable Academic Paper Revision via Human-AI Collaboration
- Title(参考訳): XtraGPT:人間とAIの協調による文脈認識・制御可能な学術論文の改訂
- Authors: Nuo Chen, Andre Lin HuiKai, Jiaying Wu, Junyi Hou, Zining Zhang, Qian Wang, Xidong Wang, Bingsheng He,
- Abstract要約: XtraGPTはオープンソースの大規模言語モデル(LLM)の最初のスイートである。
我々は140,000以上の命令-応答ペアで注釈付けされたトップレベルの会場から7,040件の研究論文のデータセットを紹介した。
XtraGPTは、同じスケールのベースラインを著しく上回り、プロプライエタリなシステムの品質にアプローチする。
- 参考スコア(独自算出の注目度): 41.44785777328187
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the growing adoption of large language models (LLMs) in academic workflows, their capabilities remain limited when it comes to supporting high-quality scientific writing. Most existing systems are designed for general-purpose scientific text generation and fail to meet the sophisticated demands of research communication beyond surface-level polishing, such as conceptual coherence across sections. Furthermore, academic writing is inherently iterative and revision-driven, a process not well supported by direct prompting-based paradigms. To address these scenarios, we propose a human-AI collaboration framework for academic paper revision. We first introduce a comprehensive dataset of 7,040 research papers from top-tier venues annotated with over 140,000 instruction-response pairs that reflect realistic, section-level scientific revisions. Building on the dataset, we develop XtraGPT, the first suite of open-source LLMs, designed to provide context-aware, instruction-guided writing assistance, ranging from 1.5B to 14B parameters. Extensive experiments validate that XtraGPT significantly outperforms same-scale baselines and approaches the quality of proprietary systems. Both automated preference assessments and human evaluations confirm the effectiveness of our models in improving scientific drafts.
- Abstract(参考訳): 学術的ワークフローにおける大規模言語モデル(LLM)の普及にもかかわらず、その能力は高品質な科学的記述をサポートするという点では限定的である。
既存のシステムの多くは汎用的な科学テキスト生成のために設計されており、セクション間の概念的コヒーレンスのような表面的な研磨以外の研究コミュニケーションの洗練された要求を満たすことができない。
さらに、学術的な文章は本質的に反復的でリビジョン駆動であり、直接的なプロンプトベースのパラダイムでは支持されないプロセスである。
これらのシナリオに対処するために,学術論文改訂のための人間-AI協調フレームワークを提案する。
まず,4万以上の命令-応答ペアが注釈付きトップ層から収集された7,040件の総合的な研究論文データセットを紹介した。
このデータセット上に構築したXtraGPTは,1.5Bから14Bのパラメータを含む,コンテキスト認識型,命令誘導型書き込み支援を実現するために設計された,オープンソースのLLMの最初のスイートである。
大規模な実験では、XtraGPTが同じスケールのベースラインを著しく上回り、プロプライエタリなシステムの品質にアプローチしていることが確認された。
自動選好評価と人的評価の両方が、科学的ドラフトの改善における我々のモデルの有効性を裏付けるものである。
関連論文リスト
- Navigating Through Paper Flood: Advancing LLM-based Paper Evaluation through Domain-Aware Retrieval and Latent Reasoning [30.92327406304362]
大規模言語モデル(LLM)を用いた論文自動評価のための新しいフレームワークPaperEvalを提案する。
PaperEvalには,1)新規性とコントリビューションの文脈的評価を支援するために,関連業務を検索するドメイン対応紙検索モジュール,2)複雑なモチベーションと方法論の深い理解を可能にする潜時推論機構,の2つの重要な要素がある。
2つのデータセットの実験により、PaperEvalは、学術的影響と紙の品質評価の両方において、既存の手法を一貫して上回っていることが示された。
論文 参考訳(メタデータ) (2025-08-07T08:08:13Z) - SciArena: An Open Evaluation Platform for Foundation Models in Scientific Literature Tasks [87.29946641069068]
我々は,学術文献タスクの基礎モデルを評価するための,オープンで協調的なプラットフォームであるSciArenaを紹介する。
集合的知性を活用することで、SciArenaはコミュニティ主導の、オープンな科学的タスクにおけるモデルパフォーマンスの評価を提供する。
収集した嗜好データに基づいたメタ評価ベンチマークであるSciArena-Evalをリリースする。
論文 参考訳(メタデータ) (2025-07-01T17:51:59Z) - AutoRev: Automatic Peer Review System for Academic Research Papers [9.269282930029856]
AutoRevは学術研究論文の自動ピアレビューシステムである。
私たちのフレームワークは学術文書をグラフとして表現し、最も重要なパスの抽出を可能にします。
レビュー生成に適用すると、平均58.72%のSOTAベースラインを上回ります。
論文 参考訳(メタデータ) (2025-05-20T13:59:58Z) - ScholarCopilot: Training Large Language Models for Academic Writing with Accurate Citations [45.57178343138677]
我々はScholarCopilotを紹介した。ScholarCopilotは学術書記のための既存の大規模言語モデルを強化するために設計された統合フレームワークである。
ScholarCopilotは、検索トークン[RET]を生成して学術的な参照をいつ取得するかを決定し、引用データベースに問い合わせる。
私たちは1つのフレームワーク内で生成タスクと引用タスクの両方を共同で最適化し、効率を向上します。
論文 参考訳(メタデータ) (2025-04-01T14:12:14Z) - Are Large Language Models Good Classifiers? A Study on Edit Intent Classification in Scientific Document Revisions [62.12545440385489]
大規模言語モデル(LLM)は、テキスト生成の大幅な進歩をもたらしたが、分類タスクの強化の可能性はまだ未検討である。
生成と符号化の両方のアプローチを含む分類のための微調整LDMを徹底的に研究するためのフレームワークを提案する。
我々はこのフレームワークを編集意図分類(EIC)においてインスタンス化する。
論文 参考訳(メタデータ) (2024-10-02T20:48:28Z) - RelevAI-Reviewer: A Benchmark on AI Reviewers for Survey Paper Relevance [0.8089605035945486]
本稿では,調査論文レビューの課題を分類問題として概念化するシステムであるRelevAI-Reviewerを提案する。
25,164のインスタンスからなる新しいデータセットを導入する。各インスタンスには1つのプロンプトと4つの候補論文があり、それぞれがプロンプトに関連している。
我々は,各論文の関連性を判断し,最も関連性の高い論文を識別できる機械学習(ML)モデルを開発した。
論文 参考訳(メタデータ) (2024-06-13T06:42:32Z) - ResearchArena: Benchmarking Large Language Models' Ability to Collect and Organize Information as Research Agents [21.17856299966841]
本研究では,学術調査における大規模言語モデル(LLM)の評価のためのベンチマークであるResearchArenaを紹介する。
これらの機会を養うため、12万のフルテキスト学術論文と7.9Kのサーベイ論文の環境を構築した。
論文 参考訳(メタデータ) (2024-06-13T03:26:30Z) - ResearchAgent: Iterative Research Idea Generation over Scientific Literature with Large Language Models [56.08917291606421]
ResearchAgentは、新しい作品のアイデアと運用のためのAIベースのシステムである。
ResearchAgentは、新しい問題を自動で定義し、手法と設計実験を提案し、繰り返し修正する。
我々は、複数の分野にわたる科学論文に関するResearchAgentを実験的に検証した。
論文 参考訳(メタデータ) (2024-04-11T13:36:29Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Revise and Resubmit: An Intertextual Model of Text-based Collaboration
in Peer Review [52.359007622096684]
ピアレビューは、ほとんどの科学分野における出版プロセスの重要な要素である。
既存のNLP研究は個々のテキストの分析に重点を置いている。
編集補助は、しばしばテキストのペア間の相互作用をモデル化する必要がある。
論文 参考訳(メタデータ) (2022-04-22T16:39:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。