論文の概要: Breaking Bad News in the Era of Artificial Intelligence and Algorithmic
Medicine: An Exploration of Disclosure and its Ethical Justification using
the Hedonic Calculus
- arxiv url: http://arxiv.org/abs/2207.01431v2
- Date: Wed, 28 Sep 2022 22:49:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 09:37:00.138655
- Title: Breaking Bad News in the Era of Artificial Intelligence and Algorithmic
Medicine: An Exploration of Disclosure and its Ethical Justification using
the Hedonic Calculus
- Title(参考訳): 人工知能とアルゴリズム医学の時代の悪いニュースを破る--ヘドニック計算を用いた開示の探索とその倫理的正当性
- Authors: Benjamin Post, Cosmin Badea, Aldo Faisal, Stephen J. Brett
- Abstract要約: 私たちは、AIの時代において、'Felicific Calculus'が時間的に準定量的な応用である可能性を示します。
この倫理的アルゴリズムは、AIが支援する行動が道徳的に正当化されるかどうかを、相互に排他的で徹底した7つの領域にわたって評価するためにどのように使用できるかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An appropriate ethical framework around the use of Artificial Intelligence
(AI) in healthcare has become a key desirable with the increasingly widespread
deployment of this technology. Advances in AI hold the promise of improving the
precision of outcome prediction at the level of the individual. However, the
addition of these technologies to patient-clinician interactions, as with any
complex human interaction, has potential pitfalls. While physicians have always
had to carefully consider the ethical background and implications of their
actions, detailed deliberations around fast-moving technological progress may
not have kept up. We use a common but key challenge in healthcare interactions,
the disclosure of bad news (likely imminent death), to illustrate how the
philosophical framework of the 'Felicific Calculus' developed in the 18th
century by Jeremy Bentham, may have a timely quasi-quantitative application in
the age of AI. We show how this ethical algorithm can be used to assess, across
seven mutually exclusive and exhaustive domains, whether an AI-supported action
can be morally justified.
- Abstract(参考訳): 医療における人工知能(AI)の利用に関する適切な倫理的枠組みは、この技術の普及が進むにつれて、重要視されている。
AIの進歩は、個人のレベルで結果予測の精度を改善するという約束を持っている。
しかし、これらの技術を患者と気候の相互作用に加えることは、人間の複雑な相互作用と同様に、潜在的な落とし穴がある。
医師は常に倫理的背景と行動の意義を慎重に検討しなければならなかったが、迅速な技術進歩に関する詳細な審議は追い付かなかったかもしれない。
私たちは18世紀にJeremy Bentham氏によって開発された哲学的な枠組みが、AIの時代において、いかに時間的に準定量的に応用されているかを説明するために、医療相互作用において共通の、しかし重要な課題、悪いニュース(おそらくは差し迫った死)を公開しています。
この倫理的アルゴリズムが、7つの排他的かつ徹底的なドメインをまたいで、aiが支援する行動が道徳的に正当化できるかどうかを評価するのにどのように役立つかを示す。
関連論文リスト
- Towards Clinical AI Fairness: Filling Gaps in the Puzzle [15.543248260582217]
このレビューでは、医療データと提供されたAIフェアネスソリューションの両方に関して、いくつかの欠陥を体系的に指摘する。
AI技術がますます活用されている多くの医療分野において、AIフェアネスの研究の欠如を強調している。
これらのギャップを埋めるために、我々のレビューは医療研究コミュニティとAI研究コミュニティの両方にとって実行可能な戦略を前進させます。
論文 参考訳(メタデータ) (2024-05-28T07:42:55Z) - Towards A Unified Utilitarian Ethics Framework for Healthcare Artificial
Intelligence [0.08192907805418582]
本研究では、異なる技術レベルでAIの実用性能に影響を与える主要な倫理的原則を特定することを試みる。
正義、プライバシー、偏見、規制の欠如、リスク、解釈可能性は倫理的AIを検討する上で最も重要な原則である。
本稿では,医療領域における倫理的AIを設計するための実用的倫理に基づく理論的枠組みを提案する。
論文 参考訳(メタデータ) (2023-09-26T02:10:58Z) - The Promise and Peril of Artificial Intelligence -- Violet Teaming
Offers a Balanced Path Forward [56.16884466478886]
本稿では、不透明で制御不能なAIシステムにおける新興問題についてレビューする。
信頼性と責任のあるAIを開発するために、紫外チームと呼ばれる統合フレームワークを提案する。
それは、設計によって積極的にリスクを管理するためのAI安全研究から生まれた。
論文 参考訳(メタデータ) (2023-08-28T02:10:38Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - From Military to Healthcare: Adopting and Expanding Ethical Principles
for Generative Artificial Intelligence [10.577932700903112]
価値ある情報を効率的に生成するように設計された新興技術である生成AIは、大きな可能性を秘めている。
我々は、医療におけるジェネレーティブAIのためのガバナンス、信頼性、エクイティ、説明責任、トレーサビリティ、プライバシ、合法性、共感、自律性を含むGREAT PLEA倫理原則を提案する。
論文 参考訳(メタデータ) (2023-08-04T16:22:06Z) - Ensuring Trustworthy Medical Artificial Intelligence through Ethical and
Philosophical Principles [4.705984758887425]
AIベースのコンピュータ支援診断と治療ツールは、臨床レベルを合わせるか、あるいは臨床専門家を上回ることで、医療を民主化することができる。
このようなAIツールの民主化は、ケアコストを削減し、リソース割り当てを最適化し、ケアの質を向上させる。
AIをヘルスケアに統合することは、バイアス、透明性、自律性、責任、説明責任など、いくつかの倫理的および哲学的な懸念を提起する。
論文 参考訳(メタデータ) (2023-04-23T04:14:18Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Explainable AI meets Healthcare: A Study on Heart Disease Dataset [0.0]
目的は、様々な技術を用いて説明可能なAIシステムの理解性と解釈可能性について実践者に啓蒙することである。
本論文は、心臓病データセットに基づく例を収録し、信頼性を高めるために説明可能性技術をどのように好むべきかを解明する。
論文 参考訳(メタデータ) (2020-11-06T05:18:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。