論文の概要: Understanding the concerns and choices of public when using large
language models for healthcare
- arxiv url: http://arxiv.org/abs/2401.09090v1
- Date: Wed, 17 Jan 2024 09:51:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 16:12:19.222234
- Title: Understanding the concerns and choices of public when using large
language models for healthcare
- Title(参考訳): 医療における大規模言語モデルを用いた公衆の関心事と選択の理解
- Authors: Yunpeng Xiao, Kyrie Zhixuan Zhou, Yueqing Liang, Kai Shu
- Abstract要約: 大規模言語モデル(LLM)は、生体医学分野におけるその可能性を示している。
医学的Q&A、自己診断、日々の医療情報検索などの医療目的にどのように使用されるかは、未調査である。
- 参考スコア(独自算出の注目度): 18.906110107170697
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have shown their potential in biomedical fields.
However, how the public uses them for healthcare purposes such as medical Q\&A,
self-diagnosis, and daily healthcare information seeking is under-investigated.
In this paper, we adopt a mixed-methods approach, including surveys (N=167) and
interviews (N=17) to investigate how and why the public uses LLMs for
healthcare. LLMs as a healthcare tool have gained popularity, and are often
used in combination with other information channels such as search engines and
online health communities to optimize information quality. LLMs provide more
accurate information and a more convenient interaction/service model compared
to traditional channels. LLMs also do a better job of reducing misinformation,
especially in daily healthcare questions. Doctors using LLMs for diagnosis is
less acceptable than for auxiliary work such as writing medical records. Based
on the findings, we reflect on the ethical and effective use of LLMs for
healthcare and propose future research directions.
- Abstract(参考訳): 大規模言語モデル(llm)は生物医学の分野でその可能性を示している。
しかし、医学的Q&A、自己診断、日々の医療情報検索などの医療目的にどのように使用されるかはまだ解明されていない。
本稿では,医療にLLMをどのように利用しているかを調査するために,調査(N=167)と面接(N=17)を含む混合メソッドアプローチを採用する。
医療ツールとしてのLLMは人気があり、検索エンジンやオンラインヘルスコミュニティといった他の情報チャネルと組み合わせて情報品質を最適化することが多い。
LLMは従来のチャネルと比較して、より正確な情報と、より便利なインタラクション/サービスモデルを提供します。
LLMは、特に日々の医療問題において、誤情報を減らすためのより良い仕事をする。
診断にLSMを使用する医師は、医療記録を書くなどの補助的な仕事ほど受け入れられない。
本研究は,医療におけるLLMの倫理的・効果的な活用を反映し,今後の研究方向性を提案する。
関連論文リスト
- Search Engines, LLMs or Both? Evaluating Information Seeking Strategies for Answering Health Questions [3.8984586307450093]
我々は,異なるWeb検索エンジン,LLM(Large Language Models)およびRAG(Research-augmented)アプローチを比較した。
健康問題に対処する可能性のあるウェブページの品質は、ランキングを下方へ下るにつれて低下しない。
評価の結果, Web エンジンは健康問題に対する正しい回答を見つける上で LLM よりも精度が低いことがわかった。
論文 参考訳(メタデータ) (2024-07-17T10:40:39Z) - MedBench: A Comprehensive, Standardized, and Reliable Benchmarking System for Evaluating Chinese Medical Large Language Models [55.215061531495984]
メドベンチ(MedBench)は、中国の医学LLMの総合的、標準化され、信頼性の高いベンチマークシステムである。
まず、MedBenchは43の臨床専門分野をカバーするために、最大の評価データセット(300,901の質問)を組み立てる。
第3に、MedBenchは動的評価機構を実装し、ショートカット学習や解答記憶を防ぐ。
論文 参考訳(メタデータ) (2024-06-24T02:25:48Z) - The Ethics of ChatGPT in Medicine and Healthcare: A Systematic Review on Large Language Models (LLMs) [0.0]
ChatGPT, Large Language Models (LLMs) は医療分野で大きな注目を集めている。
その潜在的な利点にもかかわらず、研究者は様々な倫理的影響を過小評価してきた。
本研究は, LLMの医療・医療への展開の現段階を取り巻く倫理的景観を地図化することを目的としている。
論文 参考訳(メタデータ) (2024-03-21T15:20:07Z) - Retrieval Augmented Thought Process for Private Data Handling in Healthcare [53.89406286212502]
Retrieval-Augmented Thought Process (RATP)を紹介する。
RATPは大規模言語モデル(LLM)の思考生成を定式化する
電子カルテのプライベートデータセットにおいて、RATPは、質問応答タスクのコンテキスト内検索強化生成と比較して35%の精度を達成している。
論文 参考訳(メタデータ) (2024-02-12T17:17:50Z) - AI as a Medical Ally: Evaluating ChatGPT's Usage and Impact in Indian
Healthcare [2.259877069661293]
本研究では、インドの医療分野におけるChatGPTのような大規模言語モデル(LLM)の統合と影響について検討する。
以上の結果から, 医療専門家は医療教育においてChatGPTを重んじるが, 信頼性, プライバシ, 医療基準による相互検証の必要性から注意を喚起する。
一般ユーザーは医療におけるAIインタラクションの好みを示すが、正確性や信頼に関する懸念は続く。
論文 参考訳(メタデータ) (2024-01-28T08:20:36Z) - ChiMed-GPT: A Chinese Medical Large Language Model with Full Training Regime and Better Alignment to Human Preferences [51.66185471742271]
我々は中国医学領域向けに明示的に設計されたベンチマークLSMであるChiMed-GPTを提案する。
ChiMed-GPTは、事前訓練、SFT、RLHFを含む総合的な訓練体制を実施。
我々は,ChiMed-GPTを患者識別に関する態度尺度の実行を促すことによって,潜在的なバイアスを分析した。
論文 参考訳(メタデータ) (2023-11-10T12:25:32Z) - A Survey of Large Language Models in Medicine: Progress, Application, and Challenge [85.09998659355038]
大規模言語モデル (LLM) は、人間の言語を理解し、生成する能力のために大きな注目を集めている。
本総説は,医学におけるLSMの開発と展開について概説することを目的としている。
論文 参考訳(メタデータ) (2023-11-09T02:55:58Z) - A Survey of Large Language Models for Healthcare: from Data, Technology, and Applications to Accountability and Ethics [32.10937977924507]
医療分野における大規模言語モデル(LLM)の利用は、興奮と懸念の両方を引き起こしている。
本調査では、現在開発中のLLMs for Healthcareの能力について概説し、開発プロセスについて解説する。
論文 参考訳(メタデータ) (2023-10-09T13:15:23Z) - Redefining Digital Health Interfaces with Large Language Models [69.02059202720073]
大規模言語モデル(LLM)は、複雑な情報を処理できる汎用モデルとして登場した。
LLMが臨床医とデジタル技術との新たなインターフェースを提供する方法を示す。
自動機械学習を用いた新しい予後ツールを開発した。
論文 参考訳(メタデータ) (2023-10-05T14:18:40Z) - Self-Diagnosis and Large Language Models: A New Front for Medical
Misinformation [8.738092015092207]
一般ユーザによる自己診断のレンズから,大規模言語モデル(LLM)の性能を評価する。
本研究では,実世界の事例を模倣したオープンエンド質問に対する応答を評価するテスト手法を開発した。
a) これらのモデルでは, 既知よりもパフォーマンスが悪く, b) 誤ったレコメンデーションを述べる際に, 過度な自信を含む特異な行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-07-10T21:28:26Z) - Assessing the Severity of Health States based on Social Media Posts [62.52087340582502]
ユーザの健康状態の重症度を評価するために,テキストコンテンツとコンテキスト情報の両方をモデル化する多視点学習フレームワークを提案する。
多様なNLUビューは、ユーザの健康を評価するために、タスクと個々の疾患の両方に効果を示す。
論文 参考訳(メタデータ) (2020-09-21T03:45:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。