論文の概要: AstroReview: An LLM-driven Multi-Agent Framework for Telescope Proposal Peer Review and Refinement
- arxiv url: http://arxiv.org/abs/2512.24754v1
- Date: Wed, 31 Dec 2025 09:55:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.618348
- Title: AstroReview: An LLM-driven Multi-Agent Framework for Telescope Proposal Peer Review and Refinement
- Title(参考訳): AstroReview:望遠鏡提案ピアレビューとリファインメントのためのLLM駆動マルチエージェントフレームワーク
- Authors: Yutong Wang, Yunxiang Xiao, Yonglin Tian, Junyong Li, Jing Wang, Yisheng Lv,
- Abstract要約: 提案のレビューを3段階で自動化する,オープンソースのエージェントベースのフレームワークであるAstroReviewを紹介する。
私たちは、幻覚を抑え、透明性を向上させるためにタスク分離と明確な推論トレースを使用します。
提案オーサリングエージェントの統合により、改訂されたドラフトの受け入れ率は、2回のイテレーションで66%増加する。
- 参考スコア(独自算出の注目度): 19.872595410778093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Competitive access to modern observatories has intensified as proposal volumes outpace available telescope time, making timely, consistent, and transparent peer review a critical bottleneck for the advancement of astronomy. Automating parts of this process is therefore both scientifically significant and operationally necessary to ensure fair allocation and reproducible decisions at scale. We present AstroReview, an open-source, agent-based framework that automates proposal review in three stages: (i) novelty and scientific merit, (ii) feasibility and expected yield, and (iii) meta-review and reliability verification. Task isolation and explicit reasoning traces curb hallucinations and improve transparency. Without any domain specific fine tuning, AstroReview used in our experiments only for the last stage, correctly identifies genuinely accepted proposals with an accuracy of 87%. The AstroReview in Action module replicates the review and refinement loop; with its integrated Proposal Authoring Agent, the acceptance rate of revised drafts increases by 66% after two iterations, showing that iterative feedback combined with automated meta-review and reliability verification delivers measurable quality gains. Together, these results point to a practical path toward scalable, auditable, and higher throughput proposal review for resource limited facilities.
- Abstract(参考訳): 現代の観測所への競争的アクセスは、提案のボリュームが利用可能な望遠鏡時間を上回っ、タイムリーで一貫性があり、透明なピアレビューが天文学の進歩の重要なボトルネックとなっているため、激化している。
したがって、このプロセスの一部を自動化することは、公平な割り当てと大規模な再現可能な決定を確実にするために、科学的に重要かつ運用的に必要である。
提案レビューを自動化するオープンソースのエージェントベースのフレームワークであるAstroReviewを紹介します。
(i)新奇で科学的に有益である
(二 実現可能性及び期待収率、及び
三 メタレビュー及び信頼性検証
タスク分離と明示的な推論トレースは幻覚を抑制し、透明性を改善する。
ドメイン固有の微調整がなければ、実験で使用されたAstroReviewは、真に受け入れられた提案を87%の精度で正しく識別する。
AstroReview in Actionモジュールはレビューと改善のループを複製する。Product Authoring Agentの統合により、2回のイテレーションで修正されたドラフトの受け入れ率が66%増加し、自動メタレビューと信頼性検証を組み合わせた反復的なフィードバックが測定可能な品質向上をもたらすことを示している。
これらの結果は,資源限定施設のスケーラビリティ,監査性,高スループット提案への実践的な道のりを示している。
関連論文リスト
- HADSF: Aspect Aware Semantic Control for Explainable Recommendation [4.75127493865044]
大規模言語モデル(LLM)の最近の進歩は、推薦システムに対してより効果的な情報抽出を約束している。
本稿では,適応選択によるコンパクトなコーパスレベルのアスペクトボキャブラリを誘導し,構造化アスペクトオピニオン三重項のボキャブラリ誘導,明示的に制約された抽出を行う2段階アプローチを提案する。
1.5B-70Bパラメータにまたがる約300万のレビューに関する実験では、標準評価予測器に統合された場合、HADSFは予測エラーを一貫して減少させる。
論文 参考訳(メタデータ) (2025-10-30T20:49:33Z) - Beyond "Not Novel Enough": Enriching Scholarly Critique with LLM-Assisted Feedback [81.0031690510116]
本稿では,3段階を通して専門家レビューアの動作をモデル化する,自動ノベルティ評価のための構造化アプローチを提案する。
本手法は,人文のノベルティレビューを大規模に分析した結果から得られたものである。
182 ICLR 2025 の提出で評価されたこの手法は、人間の推論と86.5%の一致と、新規性の結論に関する75.3%の合意を達成している。
論文 参考訳(メタデータ) (2025-08-14T16:18:37Z) - Retrieval is Not Enough: Enhancing RAG Reasoning through Test-Time Critique and Optimization [58.390885294401066]
Retrieval-augmented Generation (RAG) は知識基底型大規模言語モデル(LLM)を実現するためのパラダイムとして広く採用されている。
RAGパイプラインは、モデル推論が得られた証拠と整合性を維持するのに失敗することが多く、事実上の矛盾や否定的な結論につながる。
批判駆動アライメント(CDA)に基づく新しい反復的枠組みであるAlignRAGを提案する。
AlignRAG-autoは、動的に洗練を終了し、批判的な反復回数を事前に指定する必要がなくなる自律的な変種である。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z) - On the Role of Feedback in Test-Time Scaling of Agentic AI Workflows [71.92083784393418]
エージェントAI(自律的な計画と行動を行うシステム)は広く普及しているが、複雑なタスクにおけるタスクの成功率は低いままである。
推論時のアライメントは、サンプリング、評価、フィードバックの3つのコンポーネントに依存します。
本稿では,様々な形態の批判から抽出されたフィードバックを繰り返し挿入するIterative Agent Decoding(IAD)を紹介する。
論文 参考訳(メタデータ) (2025-04-02T17:40:47Z) - Building Trust in Black-box Optimization: A Comprehensive Framework for Explainability [1.3812010983144802]
代理最適化(SO)は共通の解決法であるが、その独自性は説明可能性と透明性の欠如につながっている。
EmphInclusive Explainability Metrics for Surrogate Optimization (IEMSO)を提案する。
これらのメトリクスは、SOアプローチの透明性、信頼性、説明可能性を高める。
論文 参考訳(メタデータ) (2024-10-18T16:20:17Z) - Think Twice Before Trusting: Self-Detection for Large Language Models through Comprehensive Answer Reflection [90.71323430635593]
本稿では, LLM生成解を超える包括的解答空間を考察した, 新たな自己検出パラダイムを提案する。
このパラダイムに基づいて、2段階のフレームワークを導入し、まずまずLLMに各候補の回答を反映し、正当化するように指示する。
このフレームワークは、優れた自己検出のための既存のアプローチとシームレスに統合できる。
論文 参考訳(メタデータ) (2024-03-15T02:38:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。