論文の概要: The Ethics of ChatGPT in Medicine and Healthcare: A Systematic Review on Large Language Models (LLMs)
- arxiv url: http://arxiv.org/abs/2403.14473v1
- Date: Thu, 21 Mar 2024 15:20:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-22 13:39:41.926278
- Title: The Ethics of ChatGPT in Medicine and Healthcare: A Systematic Review on Large Language Models (LLMs)
- Title(参考訳): 医学・医療におけるチャットGPTの倫理 : 大規模言語モデル(LLM)の体系的考察
- Authors: Joschka Haltaufderheide, Robert Ranisch,
- Abstract要約: ChatGPT, Large Language Models (LLMs) は医療分野で大きな注目を集めている。
その潜在的な利点にもかかわらず、研究者は様々な倫理的影響を過小評価してきた。
本研究は, LLMの医療・医療への展開の現段階を取り巻く倫理的景観を地図化することを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the introduction of ChatGPT, Large Language Models (LLMs) have received enormous attention in healthcare. Despite their potential benefits, researchers have underscored various ethical implications. While individual instances have drawn much attention, the debate lacks a systematic overview of practical applications currently researched and ethical issues connected to them. Against this background, this work aims to map the ethical landscape surrounding the current stage of deployment of LLMs in medicine and healthcare. Electronic databases and preprint servers were queried using a comprehensive search strategy. Studies were screened and extracted following a modified rapid review approach. Methodological quality was assessed using a hybrid approach. For 53 records, a meta-aggregative synthesis was performed. Four fields of applications emerged and testify to a vivid exploration phase. Advantages of using LLMs are attributed to their capacity in data analysis, personalized information provisioning, support in decision-making, mitigating information loss and enhancing information accessibility. However, we also identifies recurrent ethical concerns connected to fairness, bias, non-maleficence, transparency, and privacy. A distinctive concern is the tendency to produce harmful misinformation or convincingly but inaccurate content. A recurrent plea for ethical guidance and human oversight is evident. Given the variety of use cases, it is suggested that the ethical guidance debate be reframed to focus on defining what constitutes acceptable human oversight across the spectrum of applications. This involves considering diverse settings, varying potentials for harm, and different acceptable thresholds for performance and certainty in healthcare. In addition, a critical inquiry is necessary to determine the extent to which the current experimental use of LLMs is necessary and justified.
- Abstract(参考訳): ChatGPTの導入により、Large Language Models (LLMs) は医療において大きな注目を集めている。
その潜在的な利点にもかかわらず、研究者は様々な倫理的影響を過小評価してきた。
個々の事例が注目されている一方で、この議論は、現在研究されている実践的応用とそれらに関連する倫理的問題に関する体系的な概要を欠いている。
このような背景から, この研究は, LLMの医療・医療への展開の現段階を取り巻く倫理的景観を地図化することを目的としている。
電子データベースとプリプリントサーバは包括的な検索戦略を用いてクエリされた。
研究は、修正された迅速なレビューのアプローチに従って、スクリーニングされ、抽出された。
手法的品質をハイブリッドアプローチで評価した。
53レコードに対してメタ凝集合成を行った。
4つの応用分野が出現し、鮮明な探査段階に証明された。
LLMを使うことの利点は、データ分析、パーソナライズされた情報提供、意思決定のサポート、情報損失の軽減、情報アクセシビリティの向上にある。
しかし、公平性、偏見、非効率性、透明性、プライバシに関連する、繰り返し発生する倫理的懸念も認識している。
顕著な懸念は、有害な誤報や、説得力のあるが不正確な内容を生み出す傾向にある。
倫理的指導と人的監督に対する繰り返しの嘆願は明らかである。
様々なユースケースを考えると、倫理的ガイダンスに関する議論は、アプリケーションの範囲で許容される人間の監督を構成するものを定義することに焦点を合わせるように再編成されることが示唆されている。
これには、多様な設定、障害に対するさまざまな可能性、そして医療におけるパフォーマンスと確実性に対する異なる許容しきい値を検討することが含まれる。
また,LLMの現在の試験的使用がどの程度必要で正当化されているかを決定するためには,批判的な調査が必要である。
関連論文リスト
- Eagle: Ethical Dataset Given from Real Interactions [74.7319697510621]
社会的バイアス、毒性、不道徳な問題を示すChatGPTとユーザ間の実際のインタラクションから抽出されたデータセットを作成します。
我々の実験では、イーグルは、そのような倫理的課題の評価と緩和のために提案された既存のデータセットでカバーされていない相補的な側面を捉えている。
論文 参考訳(メタデータ) (2024-02-22T03:46:02Z) - A Comprehensive Survey of Hallucination Mitigation Techniques in Large
Language Models [7.705767540805267]
大きな言語モデル(LLM)は、人間のようなテキストを書く能力の進歩を続けている。
重要な課題は、事実に見えるが根拠のないコンテンツを生み出すことを幻覚させる傾向にある。
本稿では,LLMにおける幻覚を緩和するために開発された32以上の技術について調査する。
論文 参考訳(メタデータ) (2024-01-02T17:56:30Z) - Diagnosing and Debiasing Corpus-Based Political Bias and Insults in GPT2 [0.0]
大規模な言語モデル (LLMs) をインターネットから流出した未フィルタリングコーパスでトレーニングすることは、一般的で有利なプラクティスである。
近年の研究では、生成事前学習型トランスフォーマー(GPT)言語モデルが、自身のバイアスを認識し、生成されたコンテンツの毒性を検出することが示されている。
本研究は、侮辱と政治的偏見の2つの追加的なバイアスを緩和する診断・偏見的アプローチの有効性について検討した。
論文 参考訳(メタデータ) (2023-11-17T01:20:08Z) - Clairvoyance: A Pipeline Toolkit for Medical Time Series [95.22483029602921]
時系列学習は、データ駆動の*クリニカルな意思決定支援のパンとバターである*
Clairvoyanceは、ソフトウェアツールキットとして機能する、統合されたエンドツーエンドのオートMLフレンドリなパイプラインを提案する。
Clairvoyanceは、臨床時系列MLのための包括的で自動化可能なパイプラインの生存可能性を示す最初のものである。
論文 参考訳(メタデータ) (2023-10-28T12:08:03Z) - Bias and Fairness in Large Language Models: A Survey [76.65471160523444]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Self-Diagnosis and Large Language Models: A New Front for Medical
Misinformation [8.738092015092207]
一般ユーザによる自己診断のレンズから,大規模言語モデル(LLM)の性能を評価する。
本研究では,実世界の事例を模倣したオープンエンド質問に対する応答を評価するテスト手法を開発した。
a) これらのモデルでは, 既知よりもパフォーマンスが悪く, b) 誤ったレコメンデーションを述べる際に, 過度な自信を含む特異な行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-07-10T21:28:26Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Towards Ethics by Design in Online Abusive Content Detection [7.163723138100273]
研究の成果は、ヘイトスピーチの検出、毒性、サイバーいじめなど、関連するいくつかのサブエリアに広がっている。
倫理的問題を先導し、2段階のプロセスとして統一されたフレームワークを提案する。
新たなフレームワークは、Ethics by Designの原則によってガイドされており、より正確で信頼性の高いモデルを構築するためのステップである。
論文 参考訳(メタデータ) (2020-10-28T13:10:24Z) - Assessing the Severity of Health States based on Social Media Posts [62.52087340582502]
ユーザの健康状態の重症度を評価するために,テキストコンテンツとコンテキスト情報の両方をモデル化する多視点学習フレームワークを提案する。
多様なNLUビューは、ユーザの健康を評価するために、タスクと個々の疾患の両方に効果を示す。
論文 参考訳(メタデータ) (2020-09-21T03:45:14Z) - On the Combined Use of Extrinsic Semantic Resources for Medical
Information Search [0.0]
本研究は,頭部医学的概念を冗長な問合せで強調・拡張する枠組みを開発する。
また、意味的に強化された逆インデックス文書も作成する。
提案手法の有効性を実証するため,CLEF 2014データセット上でいくつかの実験を行った。
論文 参考訳(メタデータ) (2020-05-17T14:18:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。