論文の概要: Responsible and Regulatory Conform Machine Learning for Medicine: A
Survey of Technical Challenges and Solutions
- arxiv url: http://arxiv.org/abs/2107.09546v1
- Date: Tue, 20 Jul 2021 15:03:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-21 14:46:49.992785
- Title: Responsible and Regulatory Conform Machine Learning for Medicine: A
Survey of Technical Challenges and Solutions
- Title(参考訳): 責任と規制は医療のための機械学習に適合する - 技術的課題と解決策の調査
- Authors: Eike Petersen, Yannik Potdevin, Esfandiar Mohammadi, Stephan Zidowitz,
Sabrina Breyer, Dirk Nowotka, Sandra Henn, Ludwig Pechmann, Martin Leucker,
Philipp Rostalski and Christian Herzog
- Abstract要約: 医療機械学習システム構築における技術的課題を責任を持って調査する。
基礎となる技術的課題、対処の可能な方法、それぞれのメリットと欠点について論じる。
- 参考スコア(独自算出の注目度): 4.325945017291532
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning is expected to fuel significant improvements in medical
care. To ensure that fundamental principles such as beneficence, respect for
human autonomy, prevention of harm, justice, privacy, and transparency are
respected, medical machine learning applications must be developed responsibly.
In this paper, we survey the technical challenges involved in creating medical
machine learning systems responsibly and in conformity with existing
regulations, as well as possible solutions to address these challenges. We
begin by providing a brief overview of existing regulations affecting medical
machine learning, showing that properties such as safety, robustness,
reliability, privacy, security, transparency, explainability, and
nondiscrimination are all demanded already by existing law and regulations -
albeit, in many cases, to an uncertain degree. Next, we discuss the underlying
technical challenges, possible ways for addressing them, and their respective
merits and drawbacks. We notice that distribution shift, spurious correlations,
model underspecification, and data scarcity represent severe challenges in the
medical context (and others) that are very difficult to solve with classical
black-box deep neural networks. Important measures that may help to address
these challenges include the use of large and representative datasets and
federated learning as a means to that end, the careful exploitation of domain
knowledge wherever feasible, the use of inherently transparent models,
comprehensive model testing and verification, as well as stakeholder inclusion.
- Abstract(参考訳): 機械学習は医療に大きな改善をもたらすことが期待されている。
有益性、人的自律性への敬意、害の予防、正義、プライバシー、透明性といった基本的な原則を尊重するために、医療用機械学習の応用が責任を持って開発されなければならない。
本稿では,医療機械学習システム構築に関わる技術的課題を,既存の規制に応答し,かつ,これらの課題に対処するための解決策として検討する。
まず、安全、堅牢性、信頼性、プライバシ、セキュリティ、透明性、説明可能性、非差別といった特性が、既存の法律や規則によってすでに要求されているが、多くの場合、不確実な程度に要求されていることを示す。
次に,基盤となる技術的課題,対処可能な方法,それぞれのメリットと欠点について論じる。
我々は,従来のブラックボックス深層ニューラルネットワークでは解決が難しい医療状況(その他)において,分布シフト,急激な相関,モデル過小評価,データ不足が深刻な課題となっていることに気付く。
これらの課題に対処するための重要な手段としては、大規模で代表的なデータセットの使用、その目的を達成する手段としてのフェデレーション付き学習、ドメイン知識の慎重に活用、本質的に透明なモデルの使用、包括的なモデルテストと検証、ステークホルダーの関与などが挙げられる。
関連論文リスト
- Analysis of Blockchain Integration in the e-Healthcare Ecosystem [0.0]
本稿では、ブロックチェーン技術を用いた医療データ管理システムにおける最も一般的なアプローチについて研究する。
評価は、観察された共通の特徴の集合に基づいて行われ、一方のアプローチと他方のアプローチを区別する。
e-healthの文脈における効果的な実装には、重要な課題の存在を強調します。
論文 参考訳(メタデータ) (2024-01-08T12:19:53Z) - Explainable AI for clinical risk prediction: a survey of concepts,
methods, and modalities [2.9404725327650767]
臨床リスク予測のための説明可能なモデルの開発状況
外部検証の必要性と多様な解釈可能性メソッドの組み合わせを強調している。
臨床リスク予測における説明可能性へのエンドツーエンドアプローチは成功に不可欠である。
論文 参考訳(メタデータ) (2023-08-16T14:51:51Z) - Machine Unlearning: A Survey [56.79152190680552]
プライバシ、ユーザビリティ、および/または忘れられる権利のために、特定のサンプルに関する情報をマシンアンラーニングと呼ばれるモデルから削除する必要がある特別なニーズが生まれている。
この新興技術は、その革新と実用性により、学者と産業の両方から大きな関心を集めている。
この複雑なトピックを分析したり、さまざまなシナリオで既存の未学習ソリューションの実現可能性を比較したりした研究はない。
この調査は、未学習のテクニックに関する卓越した問題と、新しい研究機会のための実現可能な方向性を強調して締めくくった。
論文 参考訳(メタデータ) (2023-06-06T10:18:36Z) - Explainable Deep Reinforcement Learning: State of the Art and Challenges [1.005130974691351]
解釈可能性、説明可能性、透明性は、多くの重要な領域で人工知能メソッドを導入する上で重要な問題である。
本稿では, 深層強化学習法について解説する技術の現状について概説する。
論文 参考訳(メタデータ) (2023-01-24T11:41:25Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Towards a Responsible AI Development Lifecycle: Lessons From Information
Security [0.0]
本稿では,人工知能システムを開発するためのフレームワークを提案する。
特に,脅威モデリング,設計レビュー,浸透試験,インシデント応答の概念を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-06T13:03:58Z) - Technical Challenges for Training Fair Neural Networks [62.466658247995404]
最先端のアーキテクチャを用いて顔認識と自動診断データセットの実験を行います。
我々は、大きなモデルは公平さの目標に過度に適合し、意図しない、望ましくない結果を生み出すことを観察する。
論文 参考訳(メタデータ) (2021-02-12T20:36:45Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - A survey of algorithmic recourse: definitions, formulations, solutions,
and prospects [24.615500469071183]
我々は、自動意思決定システムによって不当に扱われる個人に対して、説明とレコメンデーションを提供するアルゴリズムの講義に焦点をあてる。
我々は、広範な文献レビューを行い、統一された定義、定式化、言論への解決策を提示することで、多くの著者の努力を一致させます。
論文 参考訳(メタデータ) (2020-10-08T15:15:34Z) - Probably Approximately Correct Constrained Learning [135.48447120228658]
我々は、ほぼ正しい学習フレームワーク(PAC)に基づく一般化理論を開発する。
PAC学習可能なクラスも制約のある学習者であるという意味では,学習者の導入は学習問題を難しくするものではないことを示す。
このソリューションの特性を分析し,制約付き学習が公平でロバストな分類における問題にどのように対処できるかを説明する。
論文 参考訳(メタデータ) (2020-06-09T19:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。