論文の概要: The Ethics of ChatGPT in Medicine and Healthcare: A Systematic Review on Large Language Models (LLMs)
- arxiv url: http://arxiv.org/abs/2403.14473v1
- Date: Thu, 21 Mar 2024 15:20:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-22 13:39:41.926278
- Title: The Ethics of ChatGPT in Medicine and Healthcare: A Systematic Review on Large Language Models (LLMs)
- Title(参考訳): 医学・医療におけるチャットGPTの倫理 : 大規模言語モデル(LLM)の体系的考察
- Authors: Joschka Haltaufderheide, Robert Ranisch,
- Abstract要約: ChatGPT, Large Language Models (LLMs) は医療分野で大きな注目を集めている。
その潜在的な利点にもかかわらず、研究者は様々な倫理的影響を過小評価してきた。
本研究は, LLMの医療・医療への展開の現段階を取り巻く倫理的景観を地図化することを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the introduction of ChatGPT, Large Language Models (LLMs) have received enormous attention in healthcare. Despite their potential benefits, researchers have underscored various ethical implications. While individual instances have drawn much attention, the debate lacks a systematic overview of practical applications currently researched and ethical issues connected to them. Against this background, this work aims to map the ethical landscape surrounding the current stage of deployment of LLMs in medicine and healthcare. Electronic databases and preprint servers were queried using a comprehensive search strategy. Studies were screened and extracted following a modified rapid review approach. Methodological quality was assessed using a hybrid approach. For 53 records, a meta-aggregative synthesis was performed. Four fields of applications emerged and testify to a vivid exploration phase. Advantages of using LLMs are attributed to their capacity in data analysis, personalized information provisioning, support in decision-making, mitigating information loss and enhancing information accessibility. However, we also identifies recurrent ethical concerns connected to fairness, bias, non-maleficence, transparency, and privacy. A distinctive concern is the tendency to produce harmful misinformation or convincingly but inaccurate content. A recurrent plea for ethical guidance and human oversight is evident. Given the variety of use cases, it is suggested that the ethical guidance debate be reframed to focus on defining what constitutes acceptable human oversight across the spectrum of applications. This involves considering diverse settings, varying potentials for harm, and different acceptable thresholds for performance and certainty in healthcare. In addition, a critical inquiry is necessary to determine the extent to which the current experimental use of LLMs is necessary and justified.
- Abstract(参考訳): ChatGPTの導入により、Large Language Models (LLMs) は医療において大きな注目を集めている。
その潜在的な利点にもかかわらず、研究者は様々な倫理的影響を過小評価してきた。
個々の事例が注目されている一方で、この議論は、現在研究されている実践的応用とそれらに関連する倫理的問題に関する体系的な概要を欠いている。
このような背景から, この研究は, LLMの医療・医療への展開の現段階を取り巻く倫理的景観を地図化することを目的としている。
電子データベースとプリプリントサーバは包括的な検索戦略を用いてクエリされた。
研究は、修正された迅速なレビューのアプローチに従って、スクリーニングされ、抽出された。
手法的品質をハイブリッドアプローチで評価した。
53レコードに対してメタ凝集合成を行った。
4つの応用分野が出現し、鮮明な探査段階に証明された。
LLMを使うことの利点は、データ分析、パーソナライズされた情報提供、意思決定のサポート、情報損失の軽減、情報アクセシビリティの向上にある。
しかし、公平性、偏見、非効率性、透明性、プライバシに関連する、繰り返し発生する倫理的懸念も認識している。
顕著な懸念は、有害な誤報や、説得力のあるが不正確な内容を生み出す傾向にある。
倫理的指導と人的監督に対する繰り返しの嘆願は明らかである。
様々なユースケースを考えると、倫理的ガイダンスに関する議論は、アプリケーションの範囲で許容される人間の監督を構成するものを定義することに焦点を合わせるように再編成されることが示唆されている。
これには、多様な設定、障害に対するさまざまな可能性、そして医療におけるパフォーマンスと確実性に対する異なる許容しきい値を検討することが含まれる。
また,LLMの現在の試験的使用がどの程度必要で正当化されているかを決定するためには,批判的な調査が必要である。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - "It's a conversation, not a quiz": A Risk Taxonomy and Reflection Tool for LLM Adoption in Public Health [16.418366314356184]
我々は、健康専門家や健康問題経験者と焦点を合わせ、懸念を解き放つ。
参加者の視点をリスク分類にまとめる。
この分類学は、個人の行動、人間中心のケア、情報エコシステム、技術説明責任の4つの側面を強調している。
論文 参考訳(メタデータ) (2024-11-04T20:35:10Z) - Towards Fairer Health Recommendations: finding informative unbiased samples via Word Sense Disambiguation [3.328297368052458]
LLMを含むNLPモデルを用いて,医療カリキュラムのバイアス検出に取り組む。
大規模コーパスからの偏見を医学専門家が注釈した4,105点の抜粋を含む金標準データセットで評価した。
論文 参考訳(メタデータ) (2024-09-11T17:10:20Z) - Eagle: Ethical Dataset Given from Real Interactions [74.7319697510621]
社会的バイアス、毒性、不道徳な問題を示すChatGPTとユーザ間の実際のインタラクションから抽出されたデータセットを作成します。
我々の実験では、イーグルは、そのような倫理的課題の評価と緩和のために提案された既存のデータセットでカバーされていない相補的な側面を捉えている。
論文 参考訳(メタデータ) (2024-02-22T03:46:02Z) - Extrinsically-Focused Evaluation of Omissions in Medical Summarization [9.847304366680772]
大規模言語モデル(LLM)は、医療などの安全クリティカルなアプリケーションにおいて有望であるが、パフォーマンスを定量化する能力は低下している。
MED-OMITは患者の医療記録の要約を評価するための指標として提案される。
論文 参考訳(メタデータ) (2023-11-14T16:46:15Z) - Clairvoyance: A Pipeline Toolkit for Medical Time Series [95.22483029602921]
時系列学習は、データ駆動の*クリニカルな意思決定支援のパンとバターである*
Clairvoyanceは、ソフトウェアツールキットとして機能する、統合されたエンドツーエンドのオートMLフレンドリなパイプラインを提案する。
Clairvoyanceは、臨床時系列MLのための包括的で自動化可能なパイプラインの生存可能性を示す最初のものである。
論文 参考訳(メタデータ) (2023-10-28T12:08:03Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Self-Diagnosis and Large Language Models: A New Front for Medical
Misinformation [8.738092015092207]
一般ユーザによる自己診断のレンズから,大規模言語モデル(LLM)の性能を評価する。
本研究では,実世界の事例を模倣したオープンエンド質問に対する応答を評価するテスト手法を開発した。
a) これらのモデルでは, 既知よりもパフォーマンスが悪く, b) 誤ったレコメンデーションを述べる際に, 過度な自信を含む特異な行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-07-10T21:28:26Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Towards Ethics by Design in Online Abusive Content Detection [7.163723138100273]
研究の成果は、ヘイトスピーチの検出、毒性、サイバーいじめなど、関連するいくつかのサブエリアに広がっている。
倫理的問題を先導し、2段階のプロセスとして統一されたフレームワークを提案する。
新たなフレームワークは、Ethics by Designの原則によってガイドされており、より正確で信頼性の高いモデルを構築するためのステップである。
論文 参考訳(メタデータ) (2020-10-28T13:10:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。