論文の概要: AutoPR: Let's Automate Your Academic Promotion!
- arxiv url: http://arxiv.org/abs/2510.09558v1
- Date: Fri, 10 Oct 2025 17:08:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:49.493033
- Title: AutoPR: Let's Automate Your Academic Promotion!
- Title(参考訳): AutoPR: 学術振興を自動化しよう!
- Authors: Qiguang Chen, Zheng Yan, Mingda Yang, Libo Qin, Yixin Yuan, Hanjing Li, Jinhao Liu, Yiyan Ji, Dengyun Peng, Jiannan Guan, Mengkang Hu, Yantao Du, Wanxiang Che,
- Abstract要約: 本稿では,研究論文を正確な,エンゲージメント,タイムリーな公開コンテンツに変換する新しいタスクであるAutoPRを紹介する。
PRAgentは、AutoPRを3段階で自動化するマルチエージェントフレームワークである。コンテンツ抽出、協調合成、標準の最適化、トーン、最大リーチのためのタグ付けのプラットフォーム固有の適応である。
結果は,AutoPRをトラクタブルで測定可能な研究課題と位置づけ,スケーラブルで影響力のある学術的コミュニケーションのためのロードマップを提供する。
- 参考スコア(独自算出の注目度): 50.929742814819036
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As the volume of peer-reviewed research surges, scholars increasingly rely on social platforms for discovery, while authors invest considerable effort in promoting their work to ensure visibility and citations. To streamline this process and reduce the reliance on human effort, we introduce Automatic Promotion (AutoPR), a novel task that transforms research papers into accurate, engaging, and timely public content. To enable rigorous evaluation, we release PRBench, a multimodal benchmark that links 512 peer-reviewed articles to high-quality promotional posts, assessing systems along three axes: Fidelity (accuracy and tone), Engagement (audience targeting and appeal), and Alignment (timing and channel optimization). We also introduce PRAgent, a multi-agent framework that automates AutoPR in three stages: content extraction with multimodal preparation, collaborative synthesis for polished outputs, and platform-specific adaptation to optimize norms, tone, and tagging for maximum reach. When compared to direct LLM pipelines on PRBench, PRAgent demonstrates substantial improvements, including a 604% increase in total watch time, a 438% rise in likes, and at least a 2.9x boost in overall engagement. Ablation studies show that platform modeling and targeted promotion contribute the most to these gains. Our results position AutoPR as a tractable, measurable research problem and provide a roadmap for scalable, impactful automated scholarly communication.
- Abstract(参考訳): 査読された研究が急増するにつれて、研究者は発見のための社会プラットフォームにますます依存し、著者は可視性と引用を保証するために研究を促進するために多大な努力を払っている。
このプロセスを合理化し、人間の努力への依存を減らすために、研究論文を正確で魅力的でタイムリーな公開コンテンツに変換する新しいタスクであるAutomatic promoted(AutoPR)を導入する。
厳密な評価を可能にするため,我々は,512のピアレビュー記事と高品質なプロモーションポストをリンクするマルチモーダルベンチマークPRBenchをリリースした。
PRAgentは、マルチモーダルな準備によるコンテンツ抽出、洗練された出力のための協調合成、標準の最適化のためのプラットフォーム固有の適応、トーン、最大リーチのためのタグ付けの3段階でAutoPRを自動化するマルチエージェントフレームワークである。
PRBenchの直接LLMパイプラインと比較して、PRAgentは604%のウォッチタイムの増加、438%のライクアップ、そして少なくとも2.9倍のエンゲージメント向上など、大幅に改善されている。
アブレーション研究は、プラットフォームモデリングとターゲットプロモーションがこれらの利益に最も貢献していることを示している。
結果は,AutoPRをトラクタブルで測定可能な研究課題と位置づけ,スケーラブルで影響力のある学術的コミュニケーションのためのロードマップを提供する。
関連論文リスト
- Let's Use ChatGPT To Write Our Paper! Benchmarking LLMs To Write the Introduction of a Research Paper [64.50822834679101]
SciIGは、タイトル、抽象、および関連する作品からコヒーレントな紹介を生成するLLMの能力を評価するタスクである。
オープンソース (DeepSeek-v3, Gemma-3-12B, LLaMA 4-Maverick, MistralAI Small 3.1) およびクローズドソース GPT-4o システムを含む5つの最先端モデルを評価する。
結果は、特に意味的類似性と忠実性において、ほとんどのメトリクスにおいて、LLaMA-4 Maverickの優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-08-19T21:11:11Z) - AI Research Agents for Machine Learning: Search, Exploration, and Generalization in MLE-bench [65.21702462691933]
我々は、AI研究エージェントを候補ソリューションの空間をナビゲートする検索ポリシーとして形式化し、演算子を使ってそれらを反復的に修正する。
我々の最良の探索戦略と演算子の組み合わせは、MLEベンチライトの最先端の成果を達成し、カグルメダルを39.6%から47.7%に引き上げることに成功した。
論文 参考訳(メタデータ) (2025-07-03T11:59:15Z) - SPARE: Single-Pass Annotation with Reference-Guided Evaluation for Automatic Process Supervision and Reward Modelling [58.05959902776133]
私たちはSingle-Passを紹介します。
Reference-Guided Evaluation (SPARE)は、効率的なステップごとのアノテーションを可能にする新しい構造化フレームワークである。
数学的推論(GSM8K, MATH)、マルチホップ質問応答(MuSiQue-Ans)、空間推論(SpaRP)にまたがる4つの多様なデータセットにおけるSPAREの有効性を実証する。
ProcessBenchでは、SPAREがデータ効率のよいアウト・オブ・ディストリビューションの一般化を実証し、トレーニングサンプルの$sim$16%しか使用していない。
論文 参考訳(メタデータ) (2025-06-18T14:37:59Z) - AutoRev: Multi-Modal Graph Retrieval for Automated Peer-Review Generation [5.72767946092813]
AutoRevは自動ピアレビューシステムで、レビュアーと著者の両方に実用的な高品質のフィードバックを提供するように設計されている。
ドキュメントをグラフとしてモデル化することで、AutoRevは、最も関連する情報を効果的に取得する。
AutoRevはピアレビューワークフローを合理化し、課題を緩和し、スケーラブルで高品質な学術出版を可能にする強力なツールだと考えています。
論文 参考訳(メタデータ) (2025-05-20T13:59:58Z) - RAG-Gym: Systematic Optimization of Language Agents for Retrieval-Augmented Generation [43.50113345998687]
本稿では,(1)プロンプトエンジニアリング,(2)アクターチューニング,(3)批判的トレーニングという,3つの最適化次元を探求する総合的なプラットフォームであるRAG-Gymを紹介する。
本稿では,リフレクション推論を取り入れた新しいエージェントであるRe$2$Searchを提案する。
アクターチューニングにおいて,プロセスの監督をきめ細かい3つの人気のあるポストトレーニングアルゴリズムを評価し,直接選好最適化を最も効果的に評価する。
論文 参考訳(メタデータ) (2025-02-19T18:56:03Z) - CycleResearcher: Improving Automated Research via Automated Review [37.03497673861402]
本稿では,オープンソースの後学習型大規模言語モデル(LLM)を,自動研究とレビューの全サイクルを遂行する自律エージェントとして活用する可能性について検討する。
これらのモデルをトレーニングするために、現実の機械学習研究とピアレビューダイナミクスを反映した2つの新しいデータセットを開発した。
その結果,CycleReviewerは平均絶対誤差(MAE)を26.89%削減して有望な性能を達成できた。
論文 参考訳(メタデータ) (2024-10-28T08:10:21Z) - Self-Boosting Large Language Models with Synthetic Preference Data [97.94185115047999]
モデルアライメントのための合成選好データを活用する自己ブースティングパラダイムであるSynPOを紹介する。
4回のSynPOイテレーションの後、Llama3-8BとMistral-7Bは命令追従能力を大幅に強化した。
SynPO は様々なタスクにおける LLM の一般的な性能を改善し、よく認識された Open LLM のリーダーボード上で平均スコアが 3.2 から 5.0 に向上した。
論文 参考訳(メタデータ) (2024-10-09T14:57:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。