論文の概要: AutoPK: Leveraging LLMs and a Hybrid Similarity Metric for Advanced Retrieval of Pharmacokinetic Data from Complex Tables and Documents
- arxiv url: http://arxiv.org/abs/2510.00039v1
- Date: Fri, 26 Sep 2025 22:05:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.124864
- Title: AutoPK: Leveraging LLMs and a Hybrid Similarity Metric for Advanced Retrieval of Pharmacokinetic Data from Complex Tables and Documents
- Title(参考訳): AutoPK:複合表と文書からの薬物動態データの高度検索のためのLCMの活用とハイブリッド類似度指標
- Authors: Hossein Sholehrasa, Amirhossein Ghanaatian, Doina Caragea, Lisa A. Tell, Jim E. Riviere, Majid Jaberi-Douraki,
- Abstract要約: AutoPKは、複雑な科学表からPK(Pharmacokinetics)データを正確かつスケーラブルに抽出するための新しいフレームワークである。
キャプションやフットノートを含む605 PKテーブルの実際のデータセットで評価した。
AutoPKは、スケーラブルで高信頼なPKデータ抽出を可能にし、獣医学、薬物安全性監視、公衆衛生決定における重要な応用に適している。
- 参考スコア(独自算出の注目度): 2.315762357933662
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pharmacokinetics (PK) plays a critical role in drug development and regulatory decision-making for human and veterinary medicine, directly affecting public health through drug safety and efficacy assessments. However, PK data are often embedded in complex, heterogeneous tables with variable structures and inconsistent terminologies, posing significant challenges for automated PK data retrieval and standardization. AutoPK, a novel two-stage framework for accurate and scalable extraction of PK data from complex scientific tables. In the first stage, AutoPK identifies and extracts PK parameter variants using large language models (LLMs), a hybrid similarity metric, and LLM-based validation. The second stage filters relevant rows, converts the table into a key-value text format, and uses an LLM to reconstruct a standardized table. Evaluated on a real-world dataset of 605 PK tables, including captions and footnotes, AutoPK shows significant improvements in precision and recall over direct LLM baselines. For instance, AutoPK with LLaMA 3.1-70B achieved an F1-score of 0.92 on half-life and 0.91 on clearance parameters, outperforming direct use of LLaMA 3.1-70B by margins of 0.10 and 0.21, respectively. Smaller models such as Gemma 3-27B and Phi 3-12B with AutoPK achieved 2-7 fold F1 gains over their direct use, with Gemma's hallucination rates reduced from 60-95% down to 8-14%. Notably, AutoPK enabled open-source models like Gemma 3-27B to outperform commercial systems such as GPT-4o Mini on several PK parameters. AutoPK enables scalable and high-confidence PK data extraction, making it well-suited for critical applications in veterinary pharmacology, drug safety monitoring, and public health decision-making, while addressing heterogeneous table structures and terminology and demonstrating generalizability across key PK parameters. Code and data: https://github.com/hosseinsholehrasa/AutoPK
- Abstract(参考訳): 薬物動態学(PK)は、ヒトおよび獣医学における薬物開発と規制決定において重要な役割を担い、医薬品の安全性と有効性評価を通じて公衆衛生に直接影響を及ぼす。
しかしながら、PKデータはしばしば、可変構造と一貫性のない用語を持つ複雑で不均一なテーブルに埋め込まれており、PKデータの自動検索と標準化において重要な課題となっている。
AutoPKは、複雑な科学表からPKデータを正確かつスケーラブルに抽出するための新しい2段階フレームワークである。
最初の段階では、AutoPKは大きな言語モデル(LLM)、ハイブリッド類似度メトリック、LLMベースの検証を用いてPKパラメータの変種を特定し、抽出する。
第2段階は関連する行をフィルタリングし、テーブルをキー値のテキスト形式に変換し、LLMを使用して標準化されたテーブルを再構築する。
キャプションやフットノートを含む605 PKテーブルの実際のデータセットから評価すると、AutoPKは直接LLMベースラインよりも精度とリコールが大幅に向上している。
例えば、LLaMA 3.1-70BのオートPKは半減期0.92とクリアランスパラメータ0.91でF1スコアを獲得し、それぞれ0.10と0.21のマージンでLLaMA 3.1-70Bの直接使用率を上回った。
AutoPKを搭載したGemma 3-27BやPhi 3-12Bのような小型モデルは直接使用で2-7倍のF1を達成し、Gemmaの幻覚率は60-95%から8-14%に低下した。
特にAutoPKは、Gemma 3-27Bのようなオープンソースのモデルで、いくつかのPKパラメータでGPT-4o Miniのような商用システムより優れていた。
AutoPKはスケーラブルで信頼性の高いPKデータ抽出を可能にし、獣医薬理学、薬物安全監視、公衆衛生決定における重要な応用に適し、異質なテーブル構造や用語に対処し、キーPKパラメータ間の一般化性を示す。
コードとデータ:https://github.com/hosseinsholehrasa/AutoPK
関連論文リスト
- Automatic Posology Structuration : What role for LLMs? [1.0445560141983634]
自由文ポソジを構造化形式に変換するために,Large Language Models (LLM) の利用について検討する。
提案手法は,性能向上に寄与するが,ベースラインの精度は微調整LLMのみである。
そこで我々は,NERL から LLM へ低信頼度ケースをルーティングし,信頼度スコアに基づいて出力を選択するハイブリッドパイプラインを提案する。
論文 参考訳(メタデータ) (2025-06-24T11:25:21Z) - DrugPilot: LLM-based Parameterized Reasoning Agent for Drug Discovery [54.79763887844838]
大規模言語モデル(LLM)と自律エージェントの統合は、自動推論とタスク実行を通じて科学的発見を促進する大きな可能性を秘めている。
本稿では,薬物発見におけるエンドツーエンド科学のために設計されたパラメータ化推論アーキテクチャを備えたLSMベースのエージェントシステムであるDrarmPilotを紹介する。
DrugPilot は ReAct や LoT のような最先端のエージェントよりも優れており、タスク完了率は98.0%、93.5%、64.0%である。
論文 参考訳(メタデータ) (2025-05-20T05:18:15Z) - Scalable Unit Harmonization in Medical Informatics via Bayesian-Optimized Retrieval and Transformer-Based Re-ranking [0.0]
我々は,大規模臨床データセットにおける一貫性のない単位を調和させるスケーラブルな手法を開発した。
フィルタリング、識別、調和提案生成、自動再ランク付け、手動検証といったマルチステージパイプラインを実装している。
このシステムはランク1で83.39%の精度、ランク5で94.66%のリコールを達成した。
論文 参考訳(メタデータ) (2025-05-01T19:09:15Z) - LLM Robustness Against Misinformation in Biomedical Question Answering [50.98256373698759]
探索拡張生成(RAG)アプローチは,質問応答のための大規模言語モデル(LLM)の折り畳みを低減するために用いられる。
バイオメディカル質問に対する誤報に対する4つのLDMの有効性とロバスト性を評価した。
論文 参考訳(メタデータ) (2024-10-27T16:23:26Z) - ToolACE: Winning the Points of LLM Function Calling [139.07157814653638]
ToolACEは、正確で複雑で多様なツール学習データを生成するように設計された自動エージェントパイプラインである。
我々は、合成データに基づいてトレーニングされたモデルが、8Bパラメータだけで、バークレー・ファンクション・カリング・リーダーボード上で最先端のパフォーマンスを達成することを実証した。
論文 参考訳(メタデータ) (2024-09-02T03:19:56Z) - Improving Bias Correction Standards by Quantifying its Effects on Treatment Outcomes [54.18828236350544]
Propensity score matching (PSM) は、分析のために同等の人口を選択することで選択バイアスに対処する。
異なるマッチング手法は、すべての検証基準を満たす場合でも、同じタスクに対する平均処理効果(ATE)を著しく異なるものにすることができる。
この問題に対処するため,新しい指標A2Aを導入し,有効試合数を削減した。
論文 参考訳(メタデータ) (2024-07-20T12:42:24Z) - Comparing Hyper-optimized Machine Learning Models for Predicting Efficiency Degradation in Organic Solar Cells [38.647921189039934]
本研究は,有機太陽電池 (OSC) の電力変換効率 (PCE) に苦しむ時間的劣化を表現するための機械学習モデルを提案する。
製造プロセスと環境条件の両方に関して最大7変数を含む996項目のデータベースを180日間以上作成しました。
一方、根平均二乗誤差(RMSE)、二乗誤差(SSE)の和、および平均絶対誤差(MAE)>1%の目標値であるPCEは、係数決定(R2)の値に達した。
論文 参考訳(メタデータ) (2024-03-29T22:05:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。