論文の概要: Aligning Large Language Models with Healthcare Stakeholders: A Pathway to Trustworthy AI Integration
- arxiv url: http://arxiv.org/abs/2505.02848v1
- Date: Fri, 02 May 2025 00:59:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.0299
- Title: Aligning Large Language Models with Healthcare Stakeholders: A Pathway to Trustworthy AI Integration
- Title(参考訳): ヘルスケアステークホルダーによる大規模言語モデルのアラインメント:信頼できるAI統合への道
- Authors: Kexin Ding, Mu Zhou, Akshay Chaudhari, Shaoting Zhang, Dimitris N. Metaxas,
- Abstract要約: 医療関係者と大規模言語モデル(LLM)の連携のアプローチ、ツール、応用について論じる。
LLMは、医療知識の統合、タスク理解、ヒューマンガイダンスを適切に強化することで、人間の価値に従うことができることを示す。
- 参考スコア(独自算出の注目度): 38.48512927699841
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The wide exploration of large language models (LLMs) raises the awareness of alignment between healthcare stakeholder preferences and model outputs. This alignment becomes a crucial foundation to empower the healthcare workflow effectively, safely, and responsibly. Yet the varying behaviors of LLMs may not always match with healthcare stakeholders' knowledge, demands, and values. To enable a human-AI alignment, healthcare stakeholders will need to perform essential roles in guiding and enhancing the performance of LLMs. Human professionals must participate in the entire life cycle of adopting LLM in healthcare, including training data curation, model training, and inference. In this review, we discuss the approaches, tools, and applications of alignments between healthcare stakeholders and LLMs. We demonstrate that LLMs can better follow human values by properly enhancing healthcare knowledge integration, task understanding, and human guidance. We provide outlooks on enhancing the alignment between humans and LLMs to build trustworthy real-world healthcare applications.
- Abstract(参考訳): 大規模言語モデル(LLM)の広範な探索は、医療ステークホルダーの好みとモデルアウトプットの整合性に対する意識を高める。
このアライメントは、医療ワークフローを効果的に、安全に、責任を持って強化するための重要な基盤となります。
しかし、LLMの様々な行動は、医療関係者の知識、要求、価値観と必ずしも一致しないかもしれない。
人間とAIの連携を可能にするためには、医療関係者はLLMのパフォーマンスを誘導し、向上する上で不可欠な役割を果たさなければならない。
人間のプロフェッショナルは、トレーニングデータキュレーション、モデルトレーニング、推論を含む、医療にLLMを採用するライフサイクル全体に参加しなければなりません。
本稿では、医療関係者とLCMの連携のアプローチ、ツール、応用について論じる。
LLMは、医療知識の統合、タスク理解、ヒューマンガイダンスを適切に強化することで、人間の価値に従うことができることを示す。
我々は、人間とLLMの整合性を高め、信頼できる現実世界の医療アプリケーションを構築するための展望を提供する。
関連論文リスト
- Demystifying Large Language Models for Medicine: A Primer [50.83806796466396]
大規模言語モデル(LLM)は、医療のさまざまな側面に革命をもたらすことのできる、変革的なAIツールのクラスである。
本チュートリアルは、LSMを臨床実践に効果的に統合するために必要なツールを医療専門家に提供することを目的としている。
論文 参考訳(メタデータ) (2024-10-24T15:41:56Z) - Leveraging Large Language Models for Patient Engagement: The Power of Conversational AI in Digital Health [1.8772687384996551]
大規模言語モデル(LLM)は、会話型AIを通じて医療における患者のエンゲージメントを変革する新たな機会を開いた。
4つのケーススタディを通して,LLMの非構造化会話データ処理能力を示す。
論文 参考訳(メタデータ) (2024-06-19T16:02:04Z) - A Survey on Large Language Models for Critical Societal Domains: Finance, Healthcare, and Law [65.87885628115946]
大規模言語モデル(LLM)は、金融、医療、法律の展望に革命をもたらしている。
我々は、医療における診断・治療方法論の強化、財務分析の革新、法的解釈・コンプライアンス戦略の精査におけるLCMの役割を強調した。
これらの分野におけるLLMアプリケーションの倫理を批判的に検討し、既存の倫理的懸念と透明で公平で堅牢なAIシステムの必要性を指摘した。
論文 参考訳(メタデータ) (2024-05-02T22:43:02Z) - Large Language Models and User Trust: Consequence of Self-Referential Learning Loop and the Deskilling of Healthcare Professionals [1.6574413179773761]
本稿では, LLMにおける臨床医の信頼と, 主に人間生成コンテンツからAI生成コンテンツへのデータソースの影響との関係について検討する。
主な懸念の1つは、LLMが学習のアウトプットにより依存するにつれて生じる潜在的なフィードバックループである。
調査から得られた重要なポイントは、ユーザの専門知識の重要な役割と、LCMのアウトプットを信頼し、検証するための差別化アプローチの必要性である。
論文 参考訳(メタデータ) (2024-03-15T04:04:45Z) - A Survey of Large Language Models for Healthcare: from Data, Technology, and Applications to Accountability and Ethics [32.10937977924507]
医療分野における大規模言語モデル(LLM)の利用は、興奮と懸念の両方を引き起こしている。
本調査では、現在開発中のLLMs for Healthcareの能力について概説し、開発プロセスについて解説する。
論文 参考訳(メタデータ) (2023-10-09T13:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。