論文の概要: Ethical Framework for Responsible Foundational Models in Medical Imaging
- arxiv url: http://arxiv.org/abs/2406.11868v1
- Date: Sun, 14 Apr 2024 01:18:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 07:30:49.444605
- Title: Ethical Framework for Responsible Foundational Models in Medical Imaging
- Title(参考訳): 医療画像における責任ある基礎モデルのための倫理的枠組み
- Authors: Abhijit Das, Debesh Jha, Jasmer Sanjotra, Onkar Susladkar, Suramyaa Sarkar, Ashish Rauniyar, Nikhil Tomar, Vanshali Sharma, Ulas Bagci,
- Abstract要約: 基礎モデル(FM)は医療画像に革命をもたらす大きな可能性を秘めている。
本稿では,FMに関する倫理的懸念を浮き彫りにし,医療における責任ある開発と実践の指針となる枠組みを提案する。
- 参考スコア(独自算出の注目度): 3.0043388951411676
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundational models (FMs) have tremendous potential to revolutionize medical imaging. However, their deployment in real-world clinical settings demands extensive ethical considerations. This paper aims to highlight the ethical concerns related to FMs and propose a framework to guide their responsible development and implementation within medicine. We meticulously examine ethical issues such as privacy of patient data, bias mitigation, algorithmic transparency, explainability and accountability. The proposed framework is designed to prioritize patient welfare, mitigate potential risks, and foster trust in AI-assisted healthcare.
- Abstract(参考訳): 基礎モデル(FM)は医療画像に革命をもたらす大きな可能性を秘めている。
しかし、実際の臨床環境への展開には広範な倫理的配慮が必要である。
本稿では,FMに関する倫理的懸念を浮き彫りにし,医療における責任ある開発と実践の指針となる枠組みを提案する。
患者データのプライバシー、バイアス軽減、アルゴリズムの透明性、説明可能性、説明責任などの倫理的問題を慎重に検討する。
提案するフレームワークは、患者の福祉を優先し、潜在的なリスクを軽減し、AI支援医療に対する信頼を高めるように設計されている。
関連論文リスト
- Which Client is Reliable?: A Reliable and Personalized Prompt-based Federated Learning for Medical Image Question Answering [51.26412822853409]
本稿では,医学的視覚的質問応答(VQA)モデルのための,パーソナライズド・フェデレーションド・ラーニング(pFL)手法を提案する。
提案手法では,学習可能なプロンプトをTransformerアーキテクチャに導入し,膨大な計算コストを伴わずに,多様な医療データセット上で効率的にトレーニングする。
論文 参考訳(メタデータ) (2024-10-23T00:31:17Z) - Building an Ethical and Trustworthy Biomedical AI Ecosystem for the Translational and Clinical Integration of Foundational Models [6.078700302863892]
基礎モデル(FM)は、バイオメディカルAIエコシステムにおいて注目を集めている。
我々は、バイオメディカルなAIコミュニティがこれらのモデルに責任を負い、効果的に活用することを目指している。
論文 参考訳(メタデータ) (2024-07-18T15:57:58Z) - Applications of Generative AI in Healthcare: algorithmic, ethical, legal and societal considerations [0.0]
生成AIは、医療画像とテキスト分析を急速に変換している。
本稿では,正確性,インフォームドコンセント,データプライバシ,アルゴリズム制限の問題について検討する。
我々は、医療における生成AIの倫理的かつ責任ある実装のロードマップを策定することを目指している。
論文 参考訳(メタデータ) (2024-06-15T13:28:07Z) - Towards A Unified Utilitarian Ethics Framework for Healthcare Artificial
Intelligence [0.08192907805418582]
本研究では、異なる技術レベルでAIの実用性能に影響を与える主要な倫理的原則を特定することを試みる。
正義、プライバシー、偏見、規制の欠如、リスク、解釈可能性は倫理的AIを検討する上で最も重要な原則である。
本稿では,医療領域における倫理的AIを設計するための実用的倫理に基づく理論的枠組みを提案する。
論文 参考訳(メタデータ) (2023-09-26T02:10:58Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare [1.8964739087256175]
原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
論文 参考訳(メタデータ) (2023-05-23T16:04:59Z) - A Trustworthy Framework for Medical Image Analysis with Deep Learning [71.48204494889505]
TRUDLMIAは医用画像解析のための信頼できるディープラーニングフレームワークである。
新型コロナウイルス(COVID-19)などの公衆衛生危機への対応に深層学習の活用を推進していくため、研究者や臨床医を支援することが期待されている。
論文 参考訳(メタデータ) (2022-12-06T05:30:22Z) - MedPerf: Open Benchmarking Platform for Medical Artificial Intelligence
using Federated Evaluation [110.31526448744096]
この可能性を解き明かすには、大規模な異種データに対して医療AIモデルの性能を測定する体系的な方法が必要である、と私たちは主張する。
MedPerfは、医療分野で機械学習をベンチマークするためのオープンフレームワークです。
論文 参考訳(メタデータ) (2021-09-29T18:09:41Z) - FUTURE-AI: Guiding Principles and Consensus Recommendations for Trustworthy Artificial Intelligence in Medical Imaging [6.099257839022179]
Future-AIフレームワークは、医療におけるAIの信頼性、安全性、採用を促進するための原則を導いてくれる。
我々は、Future-AIの一般的な医療原則を、医療画像コミュニティのニーズに合わせて、簡潔で具体的なAI実装ガイドに変換する。
論文 参考訳(メタデータ) (2021-09-20T16:22:49Z) - The Medkit-Learn(ing) Environment: Medical Decision Modelling through
Simulation [81.72197368690031]
医用シーケンシャルな意思決定に特化して設計された新しいベンチマークスイートを提案する。
Medkit-Learn(ing) Environmentは、高忠実度合成医療データに簡単かつ簡単にアクセスできるPythonパッケージである。
論文 参考訳(メタデータ) (2021-06-08T10:38:09Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。