論文の概要: Are clinicians ethically obligated to disclose their use of medical machine learning systems to patients?
- arxiv url: http://arxiv.org/abs/2504.01043v2
- Date: Fri, 04 Apr 2025 11:35:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-07 11:27:44.301529
- Title: Are clinicians ethically obligated to disclose their use of medical machine learning systems to patients?
- Title(参考訳): 臨床医は、医療機械学習システムの使用を患者に開示することが倫理的に義務付けられているか?
- Authors: Joshua Hatherley,
- Abstract要約: 臨床医は、医療機械学習システムの使用を患者に開示する義務を負うことが一般的である。
これを「開示論」と呼ぶ。
これら4つの議論はいずれも議論の余地がなく、開示論は否決されるべきである、と私は主張する。
- 参考スコア(独自算出の注目度): 1.6317061277457001
- License:
- Abstract: It is commonly accepted that clinicians are ethically obligated to disclose their use of medical machine learning systems to patients, and that failure to do so would amount to a moral fault for which clinicians ought to be held accountable. Call this "the disclosure thesis." Four main arguments have been, or could be, given to support the disclosure thesis in the ethics literature: the risk-based argument, the rights-based argument, the materiality argument, and the autonomy argument. In this article, I argue that each of these four arguments are unconvincing, and therefore, that the disclosure thesis ought to be rejected. I suggest that mandating disclosure may also even risk harming patients by providing stakeholders with a way to avoid accountability for harm that results from improper applications or uses of these systems.
- Abstract(参考訳): 臨床医は、医療機械学習システムの使用を患者に開示することが倫理的に義務付けられており、その失敗は、臨床医が責任を負うべき道徳的欠陥につながることが一般的である。
これを「開示論」と呼ぶ。
4つの主要な議論は、倫理文学における開示論(リスクに基づく議論、権利に基づく議論、物質的議論、自治論)を支持するためのものである。
本論では,これら4つの議論はいずれも議論の余地がなく,開示論は否定されるべきである,と論じる。
不正な適用やこれらのシステムの使用によって生じる損害に対する説明責任を回避する手段を利害関係者に提供することで、患者を害するリスクも負う可能性があると私は提案する。
関連論文リスト
- Ethical Concern Identification in NLP: A Corpus of ACL Anthology Ethics Statements [40.9861355779629]
ACLアンソロジーに掲載された科学論文から抽出した倫理的問題文1,580のコーパスであるEthiConを紹介する。
調査を通じて、コーパスの倫理的関心事と、この分野の一般市民や専門家の関心事とを比較した。
論文 参考訳(メタデータ) (2024-11-12T14:53:12Z) - Which Client is Reliable?: A Reliable and Personalized Prompt-based Federated Learning for Medical Image Question Answering [51.26412822853409]
本稿では,医学的視覚的質問応答(VQA)モデルのための,パーソナライズド・フェデレーションド・ラーニング(pFL)手法を提案する。
提案手法では,学習可能なプロンプトをTransformerアーキテクチャに導入し,膨大な計算コストを伴わずに,多様な医療データセット上で効率的にトレーニングする。
論文 参考訳(メタデータ) (2024-10-23T00:31:17Z) - The doctor will polygraph you now: ethical concerns with AI for fact-checking patients [0.23248585800296404]
社会行動予測のための人工知能(AI)手法が提案されている。
これにより、患者のデータに対する敬意、プライバシ、コントロールに関する新たな倫理的懸念が生まれます。
論文 参考訳(メタデータ) (2024-08-15T02:55:30Z) - Missci: Reconstructing Fallacies in Misrepresented Science [84.32990746227385]
ソーシャルネットワーク上の健康関連の誤報は、意思決定の貧弱さと現実世界の危険につながる可能性がある。
ミスシは、誤った推論のための新しい議論理論モデルである。
大規模言語モデルの批判的推論能力をテストするためのデータセットとしてMissciを提案する。
論文 参考訳(メタデータ) (2024-06-05T12:11:10Z) - The Ethics of ChatGPT in Medicine and Healthcare: A Systematic Review on Large Language Models (LLMs) [0.0]
ChatGPT, Large Language Models (LLMs) は医療分野で大きな注目を集めている。
その潜在的な利点にもかかわらず、研究者は様々な倫理的影響を過小評価してきた。
本研究は, LLMの医療・医療への展開の現段階を取り巻く倫理的景観を地図化することを目的としている。
論文 参考訳(メタデータ) (2024-03-21T15:20:07Z) - Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare [1.8964739087256175]
原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
論文 参考訳(メタデータ) (2023-05-23T16:04:59Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Semi-Supervised Variational Reasoning for Medical Dialogue Generation [70.838542865384]
医療対話生成には,患者の状態と医師の行動の2つの重要な特徴がある。
医療対話生成のためのエンドツーエンドの変分推論手法を提案する。
行動分類器と2つの推論検出器から構成される医師政策ネットワークは、拡張推論能力のために提案される。
論文 参考訳(メタデータ) (2021-05-13T04:14:35Z) - FairLens: Auditing Black-box Clinical Decision Support Systems [1.9634272907216734]
バイアスの発見と説明のための方法論であるFairLensを紹介します。
臨床診断支援システムとして機能する架空の商用ブラックボックスモデルを評価するために,我々のツールをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2020-11-08T18:40:50Z) - Case Study: Deontological Ethics in NLP [119.53038547411062]
我々はNLPの観点から1つの倫理理論、すなわち非オントロジー的倫理について研究する。
特に、インフォームド・コンセントを通じて、一般化原則と自律性への敬意に焦点を当てる。
NLPシステムでこれらの原則をどのように利用できるかを示すための4つのケーススタディを提供する。
論文 参考訳(メタデータ) (2020-10-09T16:04:51Z) - COVI White Paper [67.04578448931741]
接触追跡は、新型コロナウイルスのパンデミックの進行を変える上で不可欠なツールだ。
カナダで開発されたCovid-19の公衆ピアツーピア接触追跡とリスク認識モバイルアプリケーションであるCOVIの理論的、設計、倫理的考察、プライバシ戦略について概説する。
論文 参考訳(メタデータ) (2020-05-18T07:40:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。