論文の概要: Adaptive Cluster Collaborativeness Boosts LLMs Medical Decision Support Capacity
- arxiv url: http://arxiv.org/abs/2507.21159v1
- Date: Fri, 25 Jul 2025 04:21:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.006156
- Title: Adaptive Cluster Collaborativeness Boosts LLMs Medical Decision Support Capacity
- Title(参考訳): 適応的クラスタ協調性はLLMの医療決定支援能力を高める
- Authors: Zhihao Peng, Liuxin Bao, Shengyuan Liu, Yixuan Yuan,
- Abstract要約: 大規模言語モデル(LLM)は自然言語処理システムにおいて有効であることが証明されている。
本稿では,自己多様性と相互整合性を考慮したクラスタ協調手法を提案する。
本手法は,全分野にまたがる公的なパススコアまでの精度を実現する。
- 参考スコア(独自算出の注目度): 24.722167779987814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The collaborativeness of large language models (LLMs) has proven effective in natural language processing systems, holding considerable promise for healthcare development. However, it lacks explicit component selection rules, necessitating human intervention or clinical-specific validation. Moreover, existing architectures heavily rely on a predefined LLM cluster, where partial LLMs underperform in medical decision support scenarios, invalidating the collaborativeness of LLMs. To this end, we propose an adaptive cluster collaborativeness methodology involving self-diversity and cross-consistency maximization mechanisms to boost LLMs medical decision support capacity. For the self-diversity, we calculate the fuzzy matching value of pairwise outputs within an LLM as its self-diversity value, subsequently prioritizing LLMs with high self-diversity values as cluster components in a training-free manner. For the cross-consistency, we first measure cross-consistency values between the LLM with the highest self-diversity value and others, and then gradually mask out the LLM having the lowest cross-consistency value to eliminate the potential inconsistent output during the collaborative propagation. Extensive experiments on two specialized medical datasets, NEJMQA and MMLU-Pro-health, demonstrate the effectiveness of our method across physician-oriented specialties. For example, on NEJMQA, our method achieves the accuracy rate up to the publicly official passing score across all disciplines, especially achieving ACC of 65.47\% compared to the 56.12\% achieved by GPT-4 on the Obstetrics and Gynecology discipline.
- Abstract(参考訳): 大規模言語モデル(LLMs)の協調性は、自然言語処理システムにおいて有効であることが証明され、医療開発にかなりの可能性を秘めている。
しかし、明確なコンポーネント選択規則が欠如しており、人間の介入や臨床固有の検証を必要としている。
さらに、既存のアーキテクチャは既定のLCMクラスタに大きく依存しており、一部のLCMは医療的意思決定支援のシナリオではパフォーマンスが悪く、LCMの協調性を無効にしている。
そこで本研究では,LLMの医療的意思決定支援能力を高めるために,自己多様性と相互整合性最大化機構を含む適応クラスタ協調手法を提案する。
自己多様性については, LLM内のペア出力のファジィマッチング値を自己多様性値として算出し, その後, 自己多様性値の高いLCMを学習自由な方法でクラスタコンポーネントとして優先順位付けする。
相互整合性については、まずLLM間の相互整合性値を最多の自己多様性値等で測定し、その後、最小の相互整合性値を持つLSMを徐々にマスクし、協調伝搬中の潜在的な不整合性出力を除去する。
NEJMQA と MMLU-Pro-Health の2つの専門的医療データセットに対する広範囲な実験により,医師指向の専門分野における本手法の有効性が示された。
例えば, NEJMQA では, 産婦人科領域における GPT-4 が達成した 56.12 % と比較して, 全科目における公的なパススコアの精度を 65.47 % に向上させる。
関連論文リスト
- Beyond Single-Point Judgment: Distribution Alignment for LLM-as-a-Judge [24.862965044243168]
従来の手法は、人間の評価において固有の多様性と不確実性を見越して、単一点評価に依存していた。
本研究では,LLM生成した判定分布と経験的人的分布とを明確に整合させる新しいトレーニングフレームワークを提案する。
我々のフレームワークは、既存のオープンソースLCMや従来の単一点アライメント手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2025-05-18T08:33:09Z) - Med-CoDE: Medical Critique based Disagreement Evaluation Framework [72.42301910238861]
医学的文脈における大きな言語モデル(LLM)の信頼性と精度は依然として重要な懸念点である。
現在の評価手法はロバスト性に欠けることが多く、LLMの性能を総合的に評価することができない。
我々は,これらの課題に対処するために,医療用LCMの特別設計評価フレームワークであるMed-CoDEを提案する。
論文 参考訳(メタデータ) (2025-04-21T16:51:11Z) - Collab: Controlled Decoding using Mixture of Agents for LLM Alignment [90.6117569025754]
人間のフィードバックからの強化学習は、大規模言語モデルを整合させる効果的な手法として現れてきた。
制御された復号化は、再訓練せずに推論時にモデルを整列するメカニズムを提供する。
本稿では,既存の既成のLCMポリシを活用するエージェントベースのデコーディング戦略の混合を提案する。
論文 参考訳(メタデータ) (2025-03-27T17:34:25Z) - PluralLLM: Pluralistic Alignment in LLMs via Federated Learning [7.752864126266439]
我々は、複数のユーザグループが機密データを共有せずに、トランスフォーマーベースの嗜好予測器を協調的に訓練できる、フェデレート学習ベースのアプローチであるPluralLLMを紹介した。
提案手法は,フェデレート平均化(FedAvg)を利用して,選好更新を効率よく集約し,コンバージェンスを46%高速化し,アライメントスコアを4%改善し,グループ公平度を集中訓練とほぼ同等に向上する。
論文 参考訳(メタデータ) (2025-03-13T00:45:27Z) - When One LLM Drools, Multi-LLM Collaboration Rules [98.71562711695991]
私たちは、データ、スキル、人々の幅広い多様性を表現するために、マルチLLMコラボレーションを議論しています。
既存のマルチLLM協調手法を,アクセスレベルと情報交換レベルに基づいて階層構造に整理する。
コンポジションインテリジェンスとコラボレーティブAI開発への不可欠な道として,マルチLLMコラボレーションを構想する。
論文 参考訳(メタデータ) (2025-02-06T21:13:44Z) - Large Language Models Powered Multiagent Ensemble for Mitigating Hallucination and Efficient Atrial Fibrillation Annotation of ECG Reports [10.319249991495004]
本研究では,LLMを用いたマルチエージェントアンサンブル法を導入し,幻覚とデータラベリングの課題に対処する。
アンサンブルLLMと自然言語処理を用いて、推定精度98.2%の623,566ECGのMIMIC-IV ECGデータセットをラベル付けした。
我々は,1,405EHR臨床ノートの社会史セクションからSDOHを同定するために,アンサンブルLLMs法を適用し,競争性能も向上した。
論文 参考訳(メタデータ) (2024-10-21T22:12:00Z) - Understanding the Role of LLMs in Multimodal Evaluation Benchmarks [77.59035801244278]
本稿では,MLLM評価におけるLarge Language Model (LLM)バックボーンの役割について検討する。
本研究は4つのMLLMベンチマークと8つの最先端MLLMベンチマークを含む。
鍵となる発見は、いくつかのベンチマークでは視覚的な入力がなくても高いパフォーマンスを実現しており、最大50%のエラーレートは、LLMバックボーンにおける不十分な世界的知識に起因していることを示している。
論文 参考訳(メタデータ) (2024-10-16T07:49:13Z) - CoMMIT: Coordinated Instruction Tuning for Multimodal Large Language Models [68.64605538559312]
本稿では,MLLM命令のチューニングを理論的・経験的両面から解析する。
そこで本研究では,学習バランスを定量的に評価する尺度を提案する。
さらに,MLLMの生成分布の更新を促進する補助的損失正規化手法を提案する。
論文 参考訳(メタデータ) (2024-07-29T23:18:55Z) - Human-AI collectives produce the most accurate differential diagnoses [0.0]
医師集団と大規模言語モデル(LLM)のハイブリッド集団は,医師集団と医師集団のどちらよりも優れていることを示す。
我々のアプローチは、医療診断のような複雑でオープンな領域における精度を向上させるための、人間と機械の集合的知性の可能性を強調します。
論文 参考訳(メタデータ) (2024-06-21T08:46:30Z) - XAI4LLM. Let Machine Learning Models and LLMs Collaborate for Enhanced In-Context Learning in Healthcare [16.79952669254101]
本稿では,大規模言語モデルによる構造化された臨床データ処理を実現するための知識誘導型インコンテキスト学習フレームワークを提案する。
このアプローチでは、ドメイン固有の機能グループ化、慎重にバランスのとれた数ショットの例、タスク固有のプロンプト戦略を統合する。
論文 参考訳(メタデータ) (2024-05-10T06:52:44Z) - Mixture of insighTful Experts (MoTE): The Synergy of Thought Chains and Expert Mixtures in Self-Alignment [103.05005690990271]
MoTE(Mixture of insightful Experts)は、推論チェーンとエキスパートミックスを組み合わせて自己調整を改善する新しいフレームワークである。
MoTEはモデルの安全性、脱獄耐性、過剰な拒否機能を大幅に改善し、OpenAIの最先端のo1モデルに匹敵するパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-05-01T15:06:05Z) - MDAgents: An Adaptive Collaboration of LLMs for Medical Decision-Making [45.74980058831342]
MDAgents(Medical Decision-making Agents)と呼ばれる新しいマルチエージェントフレームワークを導入する。
割り当てられた単独またはグループの共同作業構造は、実際の医療決定過程をエミュレートして、手元にある医療タスクに合わせて調整される。
MDAgentsは医療知識の理解を必要とするタスクに関する10のベンチマークのうち7つのベンチマークで最高のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2024-04-22T06:30:05Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。