論文の概要: Knowledgeable Language Models as Black-Box Optimizers for Personalized Medicine
- arxiv url: http://arxiv.org/abs/2509.20975v1
- Date: Thu, 25 Sep 2025 10:19:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.83446
- Title: Knowledgeable Language Models as Black-Box Optimizers for Personalized Medicine
- Title(参考訳): パーソナライズドメディカルのためのブラックボックス最適化者としての知識言語モデル
- Authors: Michael S. Yao, Osbert Bastani, Alma Andersson, Tommaso Biancalani, Aïcha Bentaieb, Claudia Iriondo,
- Abstract要約: パーソナライズドメディカルでは、候補治療を患者に任意に投与して有効性を評価することはできない。
我々は、LEONを「プロンプトによる最適化」により実装し、LLMを治療設計を提案するエンジンとして利用する。
実世界の最適化タスクの実験では、LEONは患者に対する個別治療の提案において、従来の方法とLLMベースの方法の両方に優れていた。
- 参考スコア(独自算出の注目度): 24.857548247549033
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The goal of personalized medicine is to discover a treatment regimen that optimizes a patient's clinical outcome based on their personal genetic and environmental factors. However, candidate treatments cannot be arbitrarily administered to the patient to assess their efficacy; we often instead have access to an in silico surrogate model that approximates the true fitness of a proposed treatment. Unfortunately, such surrogate models have been shown to fail to generalize to previously unseen patient-treatment combinations. We hypothesize that domain-specific prior knowledge - such as medical textbooks and biomedical knowledge graphs - can provide a meaningful alternative signal of the fitness of proposed treatments. To this end, we introduce LLM-based Entropy-guided Optimization with kNowledgeable priors (LEON), a mathematically principled approach to leverage large language models (LLMs) as black-box optimizers without any task-specific fine-tuning, taking advantage of their ability to contextualize unstructured domain knowledge to propose personalized treatment plans in natural language. In practice, we implement LEON via 'optimization by prompting,' which uses LLMs as stochastic engines for proposing treatment designs. Experiments on real-world optimization tasks show LEON outperforms both traditional and LLM-based methods in proposing individualized treatments for patients.
- Abstract(参考訳): パーソナライズドメディカルの目標は、患者の遺伝的および環境的要因に基づいて、患者の臨床結果の最適化を行う治療レギュラーを見つけることである。
しかし, 患者に対して任意の治療を施して有効性を評価することはできず, その代わりに, 提案した治療の真の適合度を近似する in silico surrogate model を利用することが多い。
残念なことに、そのようなサロゲートモデルは、これまで見つからなかった患者-治療の組み合わせに一般化できないことが示されている。
我々は、医学教科書やバイオメディカル知識グラフのようなドメイン固有の事前知識が、提案された治療の適合性の有意義な代替信号を提供することができると仮定する。
この目的のために,LLM を用いた Entropy-Guided Optimization with kNowledgeable Priors (LEON) を導入し,大規模言語モデル (LLM) をタスク固有の微調整なしでブラックボックスオプティマイザとして活用する方法を提案する。
実際に我々は、LEONを「プロンプトによる最適化」により実装し、LEONを確率エンジンとして利用して治療設計を提案する。
実世界の最適化タスクの実験では、LEONは患者に対する個別治療の提案において、従来の方法とLLMベースの方法の両方に優れていた。
関連論文リスト
- How many patients could we save with LLM priors? [1.8421433205488897]
多施設臨床試験における有害事象の階層的ベイズモデリングのための新しい枠組みを提案する。
我々の手法は,事前学習された大言語モデル(LLM)を用いて,モデルから事前情報を直接取得する。
この方法論は、より効率的で専門家にインフォームドされた臨床試験設計の道を開く。
論文 参考訳(メタデータ) (2025-09-04T14:23:35Z) - Enhancing Patient-Centric Communication: Leveraging LLMs to Simulate Patient Perspectives [19.462374723301792]
大きな言語モデル(LLM)はロールプレイングのシナリオにおいて印象的な機能を示している。
人間の行動を模倣することで、LLMは具体的な人口統計や専門的なプロファイルに基づいて反応を予測できる。
多様な背景を持つ個人をシミュレーションする上でのLLMの有効性を評価し,これらのシミュレーション行動の一貫性を解析した。
論文 参考訳(メタデータ) (2025-01-12T22:49:32Z) - From General to Specific: Tailoring Large Language Models for Personalized Healthcare [11.09005130173986]
パーソナライズされた医療言語モデル(PMLM)を提案する。
PMLMは、個人のニーズに合わせてパーソナライズされたパーソナライズされたプロンプトを設計するための行動や好みの変化をキャプチャする。
実世界の産婦人科データを用いてPMLMを評価し, PMLMがパーソナライズされた応答を達成できることを実験的に実証した。
論文 参考訳(メタデータ) (2024-12-20T14:51:12Z) - Demystifying Large Language Models for Medicine: A Primer [50.83806796466396]
大規模言語モデル(LLM)は、医療のさまざまな側面に革命をもたらすことのできる、変革的なAIツールのクラスである。
本チュートリアルは、LSMを臨床実践に効果的に統合するために必要なツールを医療専門家に提供することを目的としている。
論文 参考訳(メタデータ) (2024-10-24T15:41:56Z) - Large Language Model Distilling Medication Recommendation Model [58.94186280631342]
大規模言語モデル(LLM)の強力な意味理解と入力非依存特性を利用する。
本研究は, LLMを用いて既存の薬剤推奨手法を変換することを目的としている。
これを軽減するため,LLMの習熟度をよりコンパクトなモデルに伝達する機能レベルの知識蒸留技術を開発した。
論文 参考訳(メタデータ) (2024-02-05T08:25:22Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。