論文の概要: Addressing Intersectionality, Explainability, and Ethics in AI-Driven Diagnostics: A Rebuttal and Call for Transdiciplinary Action
- arxiv url: http://arxiv.org/abs/2501.08497v1
- Date: Wed, 15 Jan 2025 00:00:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-16 15:53:01.462613
- Title: Addressing Intersectionality, Explainability, and Ethics in AI-Driven Diagnostics: A Rebuttal and Call for Transdiciplinary Action
- Title(参考訳): AI駆動診断における断面積・説明可能性・倫理の対応--超越的行動への反論と呼びかけ
- Authors: Myles Joshua Toledo Tan, Panayiotis V. Benos,
- Abstract要約: 人工知能の医療診断への統合の増大は、その倫理的および実践的な意味を批判的に検証する必要がある。
本稿は、AIによる診断が多様な人口に公平かつ倫理的に役立っていることを保証するために、正確さと公正性、プライバシ、傾きのバランスをとるフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.30693357740321775
- License:
- Abstract: The increasing integration of artificial intelligence (AI) into medical diagnostics necessitates a critical examination of its ethical and practical implications. While the prioritization of diagnostic accuracy, as advocated by Sabuncu et al. (2025), is essential, this approach risks oversimplifying complex socio-ethical issues, including fairness, privacy, and intersectionality. This rebuttal emphasizes the dangers of reducing multifaceted health disparities to quantifiable metrics and advocates for a more transdisciplinary approach. By incorporating insights from social sciences, ethics, and public health, AI systems can address the compounded effects of intersecting identities and safeguard sensitive data. Additionally, explainability and interpretability must be central to AI design, fostering trust and accountability. This paper calls for a framework that balances accuracy with fairness, privacy, and inclusivity to ensure AI-driven diagnostics serve diverse populations equitably and ethically.
- Abstract(参考訳): 人工知能(AI)の医学的診断への統合は、その倫理的および実践的意味の批判的な検査を必要とする。
2025年にSabuncuらによって提唱されたように、診断精度の優先順位付けは不可欠であるが、このアプローチは公正性、プライバシー、交差性といった複雑な社会倫理問題を単純化するリスクを負う。
この反論は、多面的な健康格差を定量化指標に還元する危険性を強調し、より学際的なアプローチを提唱する。
社会科学、倫理学、公衆衛生の洞察を取り入れることで、AIシステムはアイデンティティの交差と機密データの保護という複合的な効果に対処することができる。
さらに、説明可能性と解釈可能性はAI設計の中心であり、信頼と説明責任を育む必要がある。
本稿は、AIによる診断が多様な人口に公平かつ倫理的に役立っていることを保証するために、正確性と公正性、プライバシ、傾きのバランスをとるフレームワークを提案する。
関連論文リスト
- Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [61.633126163190724]
精神病は、社会的、個人的コストがかなり高い広範囲で不安定な状態である。
近年の人工知能(AI)の進歩は、うつ病、不安障害、双極性障害、統合失調症、外傷後ストレス障害などの病態を認識し、対処するための大きな可能性を秘めている。
データセットやトレーニング済みモデルからの機密データ漏洩のリスクを含むプライバシー上の懸念は、これらのAIシステムを実際の臨床環境にデプロイする上で、依然として重要な障壁である。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - Artificial Intelligence-Driven Clinical Decision Support Systems [5.010570270212569]
この章は、医療で信頼できるAIシステムを作るには、公平さ、説明可能性、プライバシーを慎重に考慮する必要があることを強調している。
AIによる公平な医療提供を保証するという課題は強調され、臨床予測モデルのバイアスを特定し緩和する方法が議論されている。
この議論は、ディープラーニングモデルのデータ漏洩からモデル説明に対する高度な攻撃に至るまで、医療AIシステムのプライバシ脆弱性の分析に進展している。
論文 参考訳(メタデータ) (2025-01-16T16:17:39Z) - Implications of Artificial Intelligence on Health Data Privacy and Confidentiality [0.0]
医療における人工知能の急速な統合は、医療診断、パーソナライズされた医療、運用効率に革命をもたらしている。
しかし、患者のデータのプライバシ、倫理的考慮、規制遵守に関する重大な問題が発生する。
本稿では、医療におけるAIの二重効果について検討し、その変革の可能性と、敏感な健康情報を保護するための重要な必要性を強調した。
論文 参考訳(メタデータ) (2025-01-03T05:17:23Z) - Ethical Challenges and Evolving Strategies in the Integration of Artificial Intelligence into Clinical Practice [1.0301404234578682]
我々は、正義と公正、透明性、患者の同意と機密性、説明責任、患者中心で公平なケアの5つの重要な倫理的関心事に焦点を当てる。
この論文は、患者の信頼を維持する上でのバイアス、透明性の欠如、そして課題が、医療におけるAIアプリケーションの有効性と公正性を損なう可能性があるかを考察する。
論文 参考訳(メタデータ) (2024-11-18T00:52:22Z) - AI-Driven Healthcare: A Survey on Ensuring Fairness and Mitigating Bias [2.398440840890111]
AIアプリケーションは、診断精度、治療のパーソナライゼーション、患者の結果予測を大幅に改善した。
これらの進歩は、実質的な倫理的・公正性の課題ももたらした。
これらのバイアスは、医療提供の格差をもたらし、異なる人口集団の診断精度と治療結果に影響を与える可能性がある。
論文 参考訳(メタデータ) (2024-07-29T02:39:17Z) - Fair by design: A sociotechnical approach to justifying the fairness of AI-enabled systems across the lifecycle [0.8164978442203773]
公正性は、既存のAIガイドラインにおいて最もよく認識される倫理的原則の1つである。
公正なAI対応システムの開発は、新たなAI規制によって要求される。
論文 参考訳(メタデータ) (2024-06-13T12:03:29Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - Validating polyp and instrument segmentation methods in colonoscopy through Medico 2020 and MedAI 2021 Challenges [58.32937972322058]
メディコオートマチックポリープセグメンテーション(Medico 2020)と「メディコ:医療画像の透明性(MedAI 2021)」コンペティション。
本報告では, それぞれのコントリビューションを包括的に分析し, ベストパフォーマンスメソッドの強さを強調し, クリニックへの臨床翻訳の可能性について考察する。
論文 参考訳(メタデータ) (2023-07-30T16:08:45Z) - The Design and Implementation of a National AI Platform for Public
Healthcare in Italy: Implications for Semantics and Interoperability [62.997667081978825]
イタリア国立衛生局は、その技術機関を通じて人工知能を採用している。
このような広大なプログラムには、知識領域の形式化に特別な注意が必要である。
AIが患者、開業医、健康システムに与える影響について疑問が投げかけられている。
論文 参考訳(メタデータ) (2023-04-24T08:00:02Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。