論文の概要: TreeReview: A Dynamic Tree of Questions Framework for Deep and Efficient LLM-based Scientific Peer Review
- arxiv url: http://arxiv.org/abs/2506.07642v1
- Date: Mon, 09 Jun 2025 11:07:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.924557
- Title: TreeReview: A Dynamic Tree of Questions Framework for Deep and Efficient LLM-based Scientific Peer Review
- Title(参考訳): TreeReview: LLMに基づく科学的ピアレビューのための動的問合せフレームワーク
- Authors: Yuan Chang, Ziyue Li, Hengyuan Zhang, Yuanbo Kong, Yanru Wu, Zhijiang Guo, Ngai Wong,
- Abstract要約: TreeReviewは、紙レビューを階層的で双方向の質問回答プロセスとしてモデル化する新しいフレームワークである。
ICLR と NeurIPS の会場から得られたベンチマークを構築し,本手法の完全なレビュー生成および実行可能なコメント生成タスクについて評価する。
実験結果から、TreeReviewは、包括的な、深い、専門家によるレビューフィードバックを提供することで、強力なベースラインを上回ります。
- 参考スコア(独自算出の注目度): 14.57949988427571
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While Large Language Models (LLMs) have shown significant potential in assisting peer review, current methods often struggle to generate thorough and insightful reviews while maintaining efficiency. In this paper, we propose TreeReview, a novel framework that models paper review as a hierarchical and bidirectional question-answering process. TreeReview first constructs a tree of review questions by recursively decomposing high-level questions into fine-grained sub-questions and then resolves the question tree by iteratively aggregating answers from leaf to root to get the final review. Crucially, we incorporate a dynamic question expansion mechanism to enable deeper probing by generating follow-up questions when needed. We construct a benchmark derived from ICLR and NeurIPS venues to evaluate our method on full review generation and actionable feedback comments generation tasks. Experimental results of both LLM-based and human evaluation show that TreeReview outperforms strong baselines in providing comprehensive, in-depth, and expert-aligned review feedback, while reducing LLM token usage by up to 80% compared to computationally intensive approaches. Our code and benchmark dataset are available at https://github.com/YuanChang98/tree-review.
- Abstract(参考訳): 大規模言語モデル(LLM)はピアレビューを支援する大きな可能性を示しているが、現在の手法は効率を維持しながら、徹底的で洞察に富んだレビューを生成するのに苦労することが多い。
本稿では,論文レビューを階層的で双方向な質問応答プロセスとしてモデル化する新しいフレームワークであるTreeReviewを提案する。
TreeReviewは、まず、ハイレベルな質問をきめ細かなサブクエストに再帰的に分解してレビューのツリーを構築し、最後にレビューを得るために葉からルートへの回答を反復的に集約することで質問ツリーを解決します。
重要な点として、動的質問拡張機構を組み込んで、必要なときに追従質問を生成することにより、より深い探索を可能にする。
ICLR と NeurIPS の会場から得られたベンチマークを構築し,本手法の完全なレビュー生成および実行可能なコメント生成タスクについて評価する。
LLMベースの評価と人的評価の両方の実験結果から、TreeReviewは、計算集約的なアプローチに比べて、LLMトークンの使用率を最大80%削減しつつ、包括的な、奥行き、専門家によるレビューフィードバックを提供することで、強力なベースラインを達成していることが示された。
コードとベンチマークのデータセットはhttps://github.com/YuanChang98/tree-review.comで公開されています。
関連論文リスト
- TreeRare: Syntax Tree-Guided Retrieval and Reasoning for Knowledge-Intensive Question Answering [10.597526246308938]
反復的かつ適応的な検索は、複雑で知識集約的な質問を解決するための有望なアプローチであることが示されている。
本研究では,構文木を利用した質問応答のための情報検索と推論のためのフレームワークであるTreeRareを提案する。
TreeRareは、既存の最先端メソッドよりも大幅に改善されている。
論文 参考訳(メタデータ) (2025-05-31T01:07:50Z) - From Rankings to Insights: Evaluation Should Shift Focus from Leaderboard to Feedback [36.68929551237421]
包括的できめ細かい結果を提供する評価フレームワークであるbftextFeedbackerを紹介します。
プロジェクトのホームページとデータセットはhttps://liudan193.io/Feedbacker.comで公開されています。
論文 参考訳(メタデータ) (2025-05-10T16:52:40Z) - ReTreever: Tree-based Coarse-to-Fine Representations for Retrieval [64.44265315244579]
そこで本研究では,様々なレベルで参照文書を整理し,表現するためのツリーベース手法を提案する。
我々の手法はReTreeverと呼ばれ、クエリと参照ドキュメントが同様のツリーブランチに割り当てられるように、バイナリツリーの内部ノード毎のルーティング関数を共同で学習する。
我々の評価では、ReTreeverは一般的に完全な表現精度を保っている。
論文 参考訳(メタデータ) (2025-02-11T21:35:13Z) - Think&Cite: Improving Attributed Text Generation with Self-Guided Tree Search and Progress Reward Modeling [63.98194996746229]
大型言語モデル(LLM)は幻覚を起こし、事実的に誤った情報を生み出す傾向にある。
我々はThink&Citeと呼ばれる新しいフレームワークを提案し、検索と統合された多段階推論問題として属性付きテキスト生成を定式化する。
論文 参考訳(メタデータ) (2024-12-19T13:55:48Z) - Tree-of-Traversals: A Zero-Shot Reasoning Algorithm for Augmenting Black-box Language Models with Knowledge Graphs [72.89652710634051]
知識グラフ(KG)は、信頼性があり、構造化され、ドメイン固有であり、最新の外部知識を提供することで、Large Language Models(LLM)を補完する。
そこで本研究では,ゼロショット推論アルゴリズムであるTree-of-Traversalsを導入する。
論文 参考訳(メタデータ) (2024-07-31T06:01:24Z) - LiteSearch: Efficacious Tree Search for LLM [70.29796112457662]
本研究では,動的ノード選択とノードレベルの探索予算を備えた新しいガイド付き木探索アルゴリズムを提案する。
GSM8KおよびTabMWPデータセットを用いて行った実験により,本手法はベースライン法に比べて計算コストが大幅に低いことを示した。
論文 参考訳(メタデータ) (2024-06-29T05:14:04Z) - TreeEval: Benchmark-Free Evaluation of Large Language Models through Tree Planning [16.590275264195586]
TreeEvalは、大規模言語モデル(LLM)のベンチマークフリー評価手法である。
これにより、高性能なLLMが再現不可能な評価セッションをホストし、本質的にデータ漏洩を回避することができる。
パラメータサイズの異なるモデルに対して,7ドルB,13ドルB,33ドルBを含む6ドルモデルを評価し,約45ドルの質問でAlpacaEval2.0との相関係数を最大化する。
論文 参考訳(メタデータ) (2024-02-20T16:38:33Z) - Probabilistic Tree-of-thought Reasoning for Answering
Knowledge-intensive Complex Questions [93.40614719648386]
大規模言語モデル(LLM)は、知識集約的な複雑な質問にチェーン・オブ・シント(CoT)推論で答えることができる。
最近の研究は、CoT推論を強化するための外部知識の回収に向けられている。
確率的ツリー・オブ・シント推論(ProbTree)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-11-23T12:52:37Z) - Entailment Tree Explanations via Iterative Retrieval-Generation Reasoner [56.08919422452905]
我々はIRGR(Iterative Retrieval-Generation Reasoner)と呼ばれるアーキテクチャを提案する。
本モデルでは,テキストの前提からステップバイステップの説明を体系的に生成することにより,与えられた仮説を説明することができる。
前提条件の検索と細分化木の生成に関する既存のベンチマークを上回り、全体の正しさはおよそ300%向上した。
論文 参考訳(メタデータ) (2022-05-18T21:52:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。