論文の概要: Responsible and Regulatory Conform Machine Learning for Medicine: A
Survey of Technical Challenges and Solutions
- arxiv url: http://arxiv.org/abs/2107.09546v1
- Date: Tue, 20 Jul 2021 15:03:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-21 14:46:49.992785
- Title: Responsible and Regulatory Conform Machine Learning for Medicine: A
Survey of Technical Challenges and Solutions
- Title(参考訳): 責任と規制は医療のための機械学習に適合する - 技術的課題と解決策の調査
- Authors: Eike Petersen, Yannik Potdevin, Esfandiar Mohammadi, Stephan Zidowitz,
Sabrina Breyer, Dirk Nowotka, Sandra Henn, Ludwig Pechmann, Martin Leucker,
Philipp Rostalski and Christian Herzog
- Abstract要約: 医療機械学習システム構築における技術的課題を責任を持って調査する。
基礎となる技術的課題、対処の可能な方法、それぞれのメリットと欠点について論じる。
- 参考スコア(独自算出の注目度): 4.325945017291532
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning is expected to fuel significant improvements in medical
care. To ensure that fundamental principles such as beneficence, respect for
human autonomy, prevention of harm, justice, privacy, and transparency are
respected, medical machine learning applications must be developed responsibly.
In this paper, we survey the technical challenges involved in creating medical
machine learning systems responsibly and in conformity with existing
regulations, as well as possible solutions to address these challenges. We
begin by providing a brief overview of existing regulations affecting medical
machine learning, showing that properties such as safety, robustness,
reliability, privacy, security, transparency, explainability, and
nondiscrimination are all demanded already by existing law and regulations -
albeit, in many cases, to an uncertain degree. Next, we discuss the underlying
technical challenges, possible ways for addressing them, and their respective
merits and drawbacks. We notice that distribution shift, spurious correlations,
model underspecification, and data scarcity represent severe challenges in the
medical context (and others) that are very difficult to solve with classical
black-box deep neural networks. Important measures that may help to address
these challenges include the use of large and representative datasets and
federated learning as a means to that end, the careful exploitation of domain
knowledge wherever feasible, the use of inherently transparent models,
comprehensive model testing and verification, as well as stakeholder inclusion.
- Abstract(参考訳): 機械学習は医療に大きな改善をもたらすことが期待されている。
有益性、人的自律性への敬意、害の予防、正義、プライバシー、透明性といった基本的な原則を尊重するために、医療用機械学習の応用が責任を持って開発されなければならない。
本稿では,医療機械学習システム構築に関わる技術的課題を,既存の規制に応答し,かつ,これらの課題に対処するための解決策として検討する。
まず、安全、堅牢性、信頼性、プライバシ、セキュリティ、透明性、説明可能性、非差別といった特性が、既存の法律や規則によってすでに要求されているが、多くの場合、不確実な程度に要求されていることを示す。
次に,基盤となる技術的課題,対処可能な方法,それぞれのメリットと欠点について論じる。
我々は,従来のブラックボックス深層ニューラルネットワークでは解決が難しい医療状況(その他)において,分布シフト,急激な相関,モデル過小評価,データ不足が深刻な課題となっていることに気付く。
これらの課題に対処するための重要な手段としては、大規模で代表的なデータセットの使用、その目的を達成する手段としてのフェデレーション付き学習、ドメイン知識の慎重に活用、本質的に透明なモデルの使用、包括的なモデルテストと検証、ステークホルダーの関与などが挙げられる。
関連論文リスト
- Ten Challenging Problems in Federated Foundation Models [55.343738234307544]
フェデレーション・ファンデーション・モデル(Federated Foundation Models、FedFM)は、フェデレーション・モデルの一般的な能力とフェデレーション・ラーニングのプライバシー保護能力を融合させる分散学習パラダイムである。
本稿では,FedFMに固有の10の課題について,基礎理論,プライベートデータの利用,継続学習,非学習,非IIDおよびグラフデータ,双方向知識伝達,インセンティブ機構設計,ゲーム機構設計,モデル透かし,効率を包括的に要約する。
論文 参考訳(メタデータ) (2025-02-14T04:01:15Z) - Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [61.633126163190724]
精神病は、社会的、個人的コストがかなり高い広範囲で不安定な状態である。
近年の人工知能(AI)の進歩は、うつ病、不安障害、双極性障害、統合失調症、外傷後ストレス障害などの病態を認識し、対処するための大きな可能性を秘めている。
データセットやトレーニング済みモデルからの機密データ漏洩のリスクを含むプライバシー上の懸念は、これらのAIシステムを実際の臨床環境にデプロイする上で、依然として重要な障壁である。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - Artificial Intelligence-Driven Clinical Decision Support Systems [5.010570270212569]
この章は、医療で信頼できるAIシステムを作るには、公平さ、説明可能性、プライバシーを慎重に考慮する必要があることを強調している。
AIによる公平な医療提供を保証するという課題は強調され、臨床予測モデルのバイアスを特定し緩和する方法が議論されている。
この議論は、ディープラーニングモデルのデータ漏洩からモデル説明に対する高度な攻撃に至るまで、医療AIシステムのプライバシ脆弱性の分析に進展している。
論文 参考訳(メタデータ) (2025-01-16T16:17:39Z) - Open Problems in Machine Unlearning for AI Safety [61.43515658834902]
特定の種類の知識を選択的に忘れたり、抑圧したりするマシンアンラーニングは、プライバシとデータ削除タスクの約束を示している。
本稿では,アンラーニングがAI安全性の包括的ソリューションとして機能することを防止するための重要な制約を特定する。
論文 参考訳(メタデータ) (2025-01-09T03:59:10Z) - Beyond One-Time Validation: A Framework for Adaptive Validation of Prognostic and Diagnostic AI-based Medical Devices [55.319842359034546]
既存のアプローチは、これらのデバイスを実際にデプロイする際の複雑さに対処するのに不足することが多い。
提示されたフレームワークは、デプロイメント中に検証と微調整を繰り返すことの重要性を強調している。
現在の米国とEUの規制分野に位置づけられている。
論文 参考訳(メタデータ) (2024-09-07T11:13:52Z) - Applications of Generative AI in Healthcare: algorithmic, ethical, legal and societal considerations [0.0]
生成AIは、医療画像とテキスト分析を急速に変換している。
本稿では,正確性,インフォームドコンセント,データプライバシ,アルゴリズム制限の問題について検討する。
我々は、医療における生成AIの倫理的かつ責任ある実装のロードマップを策定することを目指している。
論文 参考訳(メタデータ) (2024-06-15T13:28:07Z) - Explainable Machine Learning-Based Security and Privacy Protection Framework for Internet of Medical Things Systems [1.8434042562191815]
インターネット・オブ・メディカル・モノ(IoMT)は、従来の医療境界を超越し、反応性治療から予防への転換を可能にする。
その利点は、処理されたデータの感度と価値のために、ユーザの生活を危険にさらす、重大なセキュリティ上の課題に対処されている。
新しいIDS(Intrusion Detection Systems)フレームワークを導入し、ANN(Artificial Neural Networks)を侵入検知に利用し、FL(Federated Learning)をプライバシ保護に活用する。
論文 参考訳(メタデータ) (2024-03-14T11:57:26Z) - Machine Unlearning: A Survey [56.79152190680552]
プライバシ、ユーザビリティ、および/または忘れられる権利のために、特定のサンプルに関する情報をマシンアンラーニングと呼ばれるモデルから削除する必要がある特別なニーズが生まれている。
この新興技術は、その革新と実用性により、学者と産業の両方から大きな関心を集めている。
この複雑なトピックを分析したり、さまざまなシナリオで既存の未学習ソリューションの実現可能性を比較したりした研究はない。
この調査は、未学習のテクニックに関する卓越した問題と、新しい研究機会のための実現可能な方向性を強調して締めくくった。
論文 参考訳(メタデータ) (2023-06-06T10:18:36Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Towards a Responsible AI Development Lifecycle: Lessons From Information
Security [0.0]
本稿では,人工知能システムを開発するためのフレームワークを提案する。
特に,脅威モデリング,設計レビュー,浸透試験,インシデント応答の概念を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-06T13:03:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。