論文の概要: DRPG (Decompose, Retrieve, Plan, Generate): An Agentic Framework for Academic Rebuttal
- arxiv url: http://arxiv.org/abs/2601.18081v1
- Date: Mon, 26 Jan 2026 02:30:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.621958
- Title: DRPG (Decompose, Retrieve, Plan, Generate): An Agentic Framework for Academic Rebuttal
- Title(参考訳): DRPG (Decompose, Retrieve, Plan, Generate): アカデミック・リビュータルのためのエージェント・フレームワーク
- Authors: Peixuan Han, Yingjie Yu, Jingjun Xu, Jiaxuan You,
- Abstract要約: DRPGは自動アカデミック・リビュータル・ジェネレーションのためのエージェント・フレームワークである。
レビューをアトミックな懸念に分解し、論文から関連する証拠を検索し、報奨戦略を計画し、それに応じて反応を生成する。
トップ層カンファレンスのデータに関する実験では、DRPGが既存のリビューパイプラインを大幅に上回っていることが示されている。
- 参考スコア(独自算出の注目度): 17.390964535479842
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the growing adoption of large language models (LLMs) in scientific research workflows, automated support for academic rebuttal, a crucial step in academic communication and peer review, remains largely underexplored. Existing approaches typically rely on off-the-shelf LLMs or simple pipelines, which struggle with long-context understanding and often fail to produce targeted and persuasive responses. In this paper, we propose DRPG, an agentic framework for automatic academic rebuttal generation that operates through four steps: Decompose reviews into atomic concerns, Retrieve relevant evidence from the paper, Plan rebuttal strategies, and Generate responses accordingly. Notably, the Planner in DRPG reaches over 98% accuracy in identifying the most feasible rebuttal direction. Experiments on data from top-tier conferences demonstrate that DRPG significantly outperforms existing rebuttal pipelines and achieves performance beyond the average human level using only an 8B model. Our analysis further demonstrates the effectiveness of the planner design and its value in providing multi-perspective and explainable suggestions. We also showed that DRPG works well in a more complex multi-round setting. These results highlight the effectiveness of DRPG and its potential to provide high-quality rebuttal content and support the scaling of academic discussions. Codes for this work are available at https://github.com/ulab-uiuc/DRPG-RebuttalAgent.
- Abstract(参考訳): 学術研究のワークフローにおける大規模言語モデル(LLM)の採用が増加しているにもかかわらず、学術的なコミュニケーションとピアレビューにおける重要なステップである学術的反論に対する自動サポートは、いまだに未熟である。
既存のアプローチは、通常、既製のLLMや単純なパイプラインに依存しており、長いコンテキストの理解に苦慮し、ターゲット的で説得力のある応答を生成するのに失敗する。
本稿では,原子的関心事にレビューを分解し,論文から関連する証拠を検索し,報奨戦略を立案し,それに応じて回答を生成する,4つのステップで機能する,自動的学費報奨のためのエージェントフレームワークであるDRPGを提案する。
特に、DRPGのPlannerは98%以上の精度で最も現実的な反論の方向を特定することができる。
トップ層カンファレンスのデータに関する実験では、DRPGが既存のリビューパイプラインを著しく上回り、8Bモデルのみを使用して平均的な人間レベルを超えたパフォーマンスを達成することが示されている。
本分析は,多視点かつ説明可能な提案を提供する上で,プランナー設計の有効性と,その価値をさらに示すものである。
また、DRPGはより複雑なマルチラウンド環境でうまく機能することを示した。
これらの結果は、DRPGの有効性と、高品質な反響コンテンツを提供することの可能性を強調し、学術的な議論のスケーリングを支援する。
この作業のコードはhttps://github.com/ulab-uiuc/DRPG-RebuttalAgent.comで公開されている。
関連論文リスト
- Dancing in Chains: Strategic Persuasion in Academic Rebuttal via Theory of Mind [4.964424546439509]
RebuttalAgentを紹介します。それは、心の理論(ToM)における学術的貢献を基礎とする最初の枠組みです。
トレーニングプロセスは2段階で構成されており,まずエージェントにToMに基づく分析と戦略的計画能力を持たせるための微調整フェーズを監督する。
信頼性と効率のよい自動評価を行うため,100万以上のマルチソース・リビュータルデータからトレーニングした特殊評価器Rebuttal-RMを開発した。
論文 参考訳(メタデータ) (2026-01-22T07:36:48Z) - PaperGuide: Making Small Language-Model Paper-Reading Agents More Efficient [20.72001543887772]
大規模言語モデル(LLM)の最近の進歩は、科学論文を読み取ってタスク関連情報を抽出できる自律エージェントへの関心を喚起している。
既存のアプローチのほとんどは、高度に設計されたプロンプトか、あるいは従来のSFT-RLトレーニングパイプラインに依存している。
本稿では,これらの問題を緩和するフレームワークであるPaper RLを提案する。
論文 参考訳(メタデータ) (2026-01-19T12:07:51Z) - Step-DeepResearch Technical Report [90.50586290399683]
コスト効率のよいエンドツーエンドエージェントである Step-DeepResearch を紹介する。
我々は、計画とレポート作成を強化するために、アトミック能力に基づくデータ合成戦略を提案する。
中国における評価ギャップを埋めるため,現実的な深層研究シナリオのためのADR-Benchを構築した。
論文 参考訳(メタデータ) (2025-12-23T16:32:27Z) - WebWeaver: Structuring Web-Scale Evidence with Dynamic Outlines for Open-Ended Deep Research [73.58638285105971]
本稿では,AIエージェントが膨大なWebスケール情報を洞察に富むレポートに合成しなければならない複雑な課題であるtextbfopen-ended Deep Research (OEDR) に取り組む。
人間の研究プロセスをエミュレートする新しいデュアルエージェントフレームワークである textbfWebWeaver を紹介する。
私たちのフレームワークは、DeepResearch Bench、DeepConsult、DeepResearchGymなど、主要なOEDRベンチマークにまたがる最先端の新たなベンチマークを確立しています。
論文 参考訳(メタデータ) (2025-09-16T17:57:21Z) - AutoRev: Multi-Modal Graph Retrieval for Automated Peer-Review Generation [5.72767946092813]
AutoRevは自動ピアレビューシステムで、レビュアーと著者の両方に実用的な高品質のフィードバックを提供するように設計されている。
ドキュメントをグラフとしてモデル化することで、AutoRevは、最も関連する情報を効果的に取得する。
AutoRevはピアレビューワークフローを合理化し、課題を緩和し、スケーラブルで高品質な学術出版を可能にする強力なツールだと考えています。
論文 参考訳(メタデータ) (2025-05-20T13:59:58Z) - Detect, Explain, Escalate: Low-Carbon Dialogue Breakdown Management for LLM-Powered Agents [30.13634341221476]
大規模言語モデル(LLM)は、多くのアプリケーションを変えつつありますが、会話のブレークダウンへの感受性は、ユーザ信頼を損なう重要な課題です。
本稿では,低炭素運転を重視したLDMエージェントの対話分解を管理するためのフレームワーク「Detect, Explain, Escalate」を提案する。
論文 参考訳(メタデータ) (2025-04-26T07:51:05Z) - QLASS: Boosting Language Agent Inference via Q-Guided Stepwise Search [89.97082652805904]
提案するQLASS(Q-guided Language Agent Stepwise Search)は,Q-valueを推定してアノテーションを自動的に生成する。
ステップワイズガイダンスにより、言語エージェントが長期的価値に適応できるようにQ誘導型生成戦略を提案する。
我々はQLASSが質的分析によってより効果的な意思決定につながることを実証的に実証した。
論文 参考訳(メタデータ) (2025-02-04T18:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。