論文の概要: EpidemIQs: Prompt-to-Paper LLM Agents for Epidemic Modeling and Analysis
- arxiv url: http://arxiv.org/abs/2510.00024v1
- Date: Wed, 24 Sep 2025 18:54:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.104224
- Title: EpidemIQs: Prompt-to-Paper LLM Agents for Epidemic Modeling and Analysis
- Title(参考訳): EpidemIQs: Prompt-to-Paper LLM Agents for Epidemic Modeling and Analysis
- Authors: Mohammad Hossein Samaei, Faryad Darabi Sahneh, Lee W. Cohnstaedt, Caterina Scoglio,
- Abstract要約: 大規模言語モデル(LLM)は、複雑な学際研究を自動化する新しい機会を提供する。
EpidemIQsは、ユーザ入力を統合し、文献のレビュー、分析的導出、ネットワークモデリング、シミュレーションの呼び出し、データの可視化と分析、そして最後に構造化された原稿での発見の文書化を行う、新しいマルチエージェントLCMフレームワークである。
我々は、計算コスト、完成率、AIおよび生成されたレポートの人間専門家レビューを測定する様々なシナリオにおいて、エピデムIQを評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) offer new opportunities to automate complex interdisciplinary research domains. Epidemic modeling, characterized by its complexity and reliance on network science, dynamical systems, epidemiology, and stochastic simulations, represents a prime candidate for leveraging LLM-driven automation. We introduce \textbf{EpidemIQs}, a novel multi-agent LLM framework that integrates user inputs and autonomously conducts literature review, analytical derivation, network modeling, mechanistic modeling, stochastic simulations, data visualization and analysis, and finally documentation of findings in a structured manuscript. We introduced two types of agents: a scientist agent for planning, coordination, reflection, and generation of final results, and a task-expert agent to focus exclusively on one specific duty serving as a tool to the scientist agent. The framework consistently generated complete reports in scientific article format. Specifically, using GPT 4.1 and GPT 4.1 mini as backbone LLMs for scientist and task-expert agents, respectively, the autonomous process completed with average total token usage 870K at a cost of about \$1.57 per study, achieving a 100\% completion success rate through our experiments. We evaluate EpidemIQs across different epidemic scenarios, measuring computational cost, completion success rate, and AI and human expert reviews of generated reports. We compare EpidemIQs to the single-agent LLM, which has the same system prompts and tools, iteratively planning, invoking tools, and revising outputs until task completion. The comparison shows consistently higher performance of the proposed framework across five different scenarios. EpidemIQs represents a step forward in accelerating scientific research by significantly reducing costs and turnaround time of discovery processes, and enhancing accessibility to advanced modeling tools.
- Abstract(参考訳): 大規模言語モデル(LLM)は、複雑な学際的な研究領域を自動化する新しい機会を提供する。
エピデミックモデリングは、複雑でネットワーク科学、力学系、疫学、確率シミュレーションに依存しているのが特徴であり、LLM駆動の自動化を活用するための主要な候補である。
本稿では,ユーザ入力を統合し,文献レビュー,解析的導出,ネットワークモデリング,メカニスティックモデリング,確率シミュレーション,データの可視化と解析を行う新しいマルチエージェントLCMフレームワークである「textbf{EpidemIQs}」を紹介する。
我々は, 最終結果の計画, 調整, 反映, 生成のための科学者エージェントと, 科学者エージェントのツールとして機能する1つの特定の任務にのみ焦点をあてるタスクエキスパートエージェントの2種類のエージェントを導入した。
このフレームワークは、科学論文形式の完全なレポートを一貫して生成した。
具体的には, GPT 4.1 と GPT 4.1 mini を科学者とタスクエキスパートエージェントのバックボーン LLM として使用し, 平均トークン使用率 870K を1回あたり約1.57 ドルで達成し, 実験により100 % の達成率を達成した。
我々は,様々な流行のシナリオにまたがるエピデムIQを評価し,計算コスト,完成率,AIと人的専門家による報告のレビューを行った。
EpidemIQsを、同じシステムプロンプトとツール、反復的な計画、ツールの呼び出し、タスク完了までのアウトプットの修正を持つ単一エージェントLLMと比較する。
この比較は、5つの異なるシナリオで提案されたフレームワークの性能を一貫して向上させる。
エピデムIQは、発見プロセスのコストとターンアラウンド時間を大幅に削減し、高度なモデリングツールへのアクセシビリティを高めることで、科学研究を加速させる一歩である。
関連論文リスト
- Deep Research Agents: A Systematic Examination And Roadmap [109.53237992384872]
Deep Research (DR) エージェントは複雑な多ターン情報研究タスクに取り組むように設計されている。
本稿では,DRエージェントを構成する基礎技術とアーキテクチャコンポーネントの詳細な分析を行う。
論文 参考訳(メタデータ) (2025-06-22T16:52:48Z) - Agentomics-ML: Autonomous Machine Learning Experimentation Agent for Genomic and Transcriptomic Data [33.7054351451505]
本稿では,完全自律型エージェントベースシステムであるAgenomics-MLを紹介した。
本稿では,Agenomics-MLが既存のエージェントベースの手法よりも,一般化と成功率の両面で優れていることを示す。
論文 参考訳(メタデータ) (2025-06-05T19:44:38Z) - IDA-Bench: Evaluating LLMs on Interactive Guided Data Analysis [60.32962597618861]
IDA-Benchは、多ラウンドの対話シナリオで大規模言語モデルを評価する新しいベンチマークである。
エージェント性能は、最終的な数値出力と人間由来のベースラインを比較して判断する。
最先端のコーディングエージェント(Claude-3.7-thinkingなど)でさえ50%のタスクを成功させ、シングルターンテストでは明らかでない制限を強調している。
論文 参考訳(メタデータ) (2025-05-23T09:37:52Z) - Towards Artificial Intelligence Research Assistant for Expert-Involved Learning [64.7438151207189]
大規模言語モデル (LLMs) と大規模多モードモデル (LMMs) は科学研究における変革的ツールとして登場している。
textbfExpert-involved textbfLearning (ARIEL)のためのtextbfARtificial textbfIntelligence Research Assistantを提案する。
論文 参考訳(メタデータ) (2025-05-03T14:21:48Z) - Zero-Shot Document-Level Biomedical Relation Extraction via Scenario-based Prompt Design in Two-Stage with LLM [7.808231572590279]
ハードウェアと労働コストの低い汎用大言語モデル (LLM) を用いて, 注釈のない完全文書から同じ結果を得るための新しい手法を提案する。
我々のアプローチは、名前付きエンティティ認識(NER)と関係抽出(RE)の2つの主要な段階を組み合わせる。
本稿では,プロンプトの有効性を高めるために,5部テンプレート構造とシナリオに基づくプロンプト設計の原理を提案する。
論文 参考訳(メタデータ) (2025-05-02T07:33:20Z) - LLM Agent Swarm for Hypothesis-Driven Drug Discovery [2.7036595757881323]
ファーマシュワーム(PharmaSwarm)は、新規な薬物標的および鉛化合物の仮説を提唱し、検証し、洗練するために、特殊な「エージェント」を編成する統合マルチエージェントフレームワークである。
PharmaSwarmはAIの副操縦士として機能することで、翻訳研究を加速し、従来のパイプラインよりも効率的に高信頼の仮説を提供することができる。
論文 参考訳(メタデータ) (2025-04-24T22:27:50Z) - Toward Automated Simulation Research Workflow through LLM Prompt Engineering Design [5.03859766090879]
本研究では,Large Language Models (LLM) を用いた自律型シミュレーションエージェント (ASA) の実現可能性について検討する。
実験ケースとして, 高分子鎖配座のよく研究されたシミュレーション問題を用いて, 異なるLCMを用いたASAの長期化と信頼性について検討した。
その結果,ASA-GPT-4oは指定された研究ミッションでほぼ不当に実行された。
論文 参考訳(メタデータ) (2024-08-28T03:48:05Z) - MLAgentBench: Evaluating Language Agents on Machine Learning Experimentation [96.71370747681078]
我々は,CIFAR-10におけるモデル性能の改善から,BabyLMのような最近の研究課題まで,13のタスクからなるMLAgentBenchを紹介した。
各タスクに対して、エージェントはファイルの読み書き、コードの実行、出力の検査などのアクションを実行することができる。
我々は、Claude v1.0、Claude v2.1、Claude v3 Opus、GPT-4、GPT-4-turbo、Gemini-Pro、Mixtralに基づいてベンチマークエージェントをベンチマークし、Claude v3 Opusエージェントが成功率の点で最高であることを示す。
論文 参考訳(メタデータ) (2023-10-05T04:06:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。