論文の概要: INTRPRT: A Systematic Review of and Guidelines for Designing and
Validating Transparent AI in Medical Image Analysis
- arxiv url: http://arxiv.org/abs/2112.12596v1
- Date: Tue, 21 Dec 2021 05:14:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-25 05:53:20.138073
- Title: INTRPRT: A Systematic Review of and Guidelines for Designing and
Validating Transparent AI in Medical Image Analysis
- Title(参考訳): INTRPRT : 医用画像解析における透明AIの設計と検証のためのシステムレビューとガイドライン
- Authors: Haomin Chen, Catalina Gomez, Chien-Ming Huang, Mathias Unberath
- Abstract要約: 人間中心の設計の観点から見ると、透明性はMLモデルの特性ではなく、アルゴリズムとユーザとの関係という余裕である。
医療と医療の画像分析における人間中心のデザイン原則に従うことは、エンドユーザの可用性とアクセスが制限されているため、難しい。
本稿では、医用画像解析における透明MLシステムのための体系的設計ディレクティブであるINTRPRTガイドラインを紹介する。
- 参考スコア(独自算出の注目度): 5.3613726625503215
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transparency in Machine Learning (ML), attempts to reveal the working
mechanisms of complex models. Transparent ML promises to advance human factors
engineering goals of human-centered AI in the target users. From a
human-centered design perspective, transparency is not a property of the ML
model but an affordance, i.e. a relationship between algorithm and user; as a
result, iterative prototyping and evaluation with users is critical to
attaining adequate solutions that afford transparency. However, following
human-centered design principles in healthcare and medical image analysis is
challenging due to the limited availability of and access to end users. To
investigate the state of transparent ML in medical image analysis, we conducted
a systematic review of the literature. Our review reveals multiple severe
shortcomings in the design and validation of transparent ML for medical image
analysis applications. We find that most studies to date approach transparency
as a property of the model itself, similar to task performance, without
considering end users during neither development nor evaluation. Additionally,
the lack of user research, and the sporadic validation of transparency claims
put contemporary research on transparent ML for medical image analysis at risk
of being incomprehensible to users, and thus, clinically irrelevant. To
alleviate these shortcomings in forthcoming research while acknowledging the
challenges of human-centered design in healthcare, we introduce the INTRPRT
guideline, a systematic design directive for transparent ML systems in medical
image analysis. The INTRPRT guideline suggests formative user research as the
first step of transparent model design to understand user needs and domain
requirements. Following this process produces evidence to support design
choices, and ultimately, increases the likelihood that the algorithms afford
transparency.
- Abstract(参考訳): Transparency in Machine Learning (ML)は、複雑なモデルの動作メカニズムを明らかにする。
Transparent MLは、ターゲットユーザーにおける人間中心AIのヒューマンファクターエンジニアリング目標を前進させることを約束する。
人間中心の設計の観点からは、透明性はMLモデルの特性ではなく、機会、すなわちアルゴリズムとユーザとの関係である。
しかしながら、医療や医療画像分析における人間中心の設計原則に従うことは、エンドユーザーへの可用性とアクセスが限られているため困難である。
医用画像解析における透明MLの現状を調べるため,文献の体系的レビューを行った。
医用画像解析用透明MLの設計と検証において,いくつかの重大な欠点が指摘されている。
その結果,現在までのほとんどの研究は,開発や評価を伴わないエンドユーザーを考慮せずに,タスクパフォーマンスに類似した,モデル自体の特性として透明性にアプローチしていることが判明した。
さらに, ユーザ調査の欠如, 透明性主張の散発的検証により, 医療画像解析における透過的MLの現代的研究は, ユーザにとって理解不能なリスクを伴い, 臨床的には無関係である。
医療における人中心設計の課題を認識しつつ、今後の研究におけるこれらの欠点を軽減するために、医療画像解析における透明MLシステムのための体系的設計指針であるINTRPRTガイドラインを導入する。
INTRPRTガイドラインは、ユーザニーズとドメイン要件を理解するための透過的なモデル設計の第一歩として、フォーマティブなユーザリサーチを提案する。
このプロセスの後、設計選択をサポートする証拠が生まれ、最終的にはアルゴリズムが透明性を得る可能性を高める。
関連論文リスト
- Analyzing the Effect of $k$-Space Features in MRI Classification Models [0.0]
医用イメージングに適した説明可能なAI手法を開発した。
我々は、画像領域と周波数領域の両方にわたるMRIスキャンを分析する畳み込みニューラルネットワーク(CNN)を採用している。
このアプローチは、初期のトレーニング効率を高めるだけでなく、追加機能がモデル予測にどのように影響するかの理解を深めます。
論文 参考訳(メタデータ) (2024-09-20T15:43:26Z) - SkinGEN: an Explainable Dermatology Diagnosis-to-Generation Framework with Interactive Vision-Language Models [52.90397538472582]
SkinGENは、VLMが提供する診断結果から参照デモを生成する、診断から生成までのフレームワークである。
システム性能と説明可能性の両方を評価するために,32人の参加者によるユーザスタディを実施している。
その結果、SkinGENはVLM予測に対するユーザの理解を著しく改善し、診断プロセスへの信頼を高めることが示されている。
論文 参考訳(メタデータ) (2024-04-23T05:36:33Z) - The Limits of Perception: Analyzing Inconsistencies in Saliency Maps in XAI [0.0]
説明可能な人工知能(XAI)は、AIの意思決定プロセスの解明に不可欠である。
ブラックボックス」として機能し、その理由が曖昧でアクセスできないため、誤診のリスクが高まる。
この透明性へのシフトは、単に有益であるだけでなく、医療におけるAI統合の責任を負うための重要なステップでもある。
論文 参考訳(メタデータ) (2024-03-23T02:15:23Z) - Clairvoyance: A Pipeline Toolkit for Medical Time Series [95.22483029602921]
時系列学習は、データ駆動の*クリニカルな意思決定支援のパンとバターである*
Clairvoyanceは、ソフトウェアツールキットとして機能する、統合されたエンドツーエンドのオートMLフレンドリなパイプラインを提案する。
Clairvoyanceは、臨床時系列MLのための包括的で自動化可能なパイプラインの生存可能性を示す最初のものである。
論文 参考訳(メタデータ) (2023-10-28T12:08:03Z) - Validating polyp and instrument segmentation methods in colonoscopy through Medico 2020 and MedAI 2021 Challenges [58.32937972322058]
メディコオートマチックポリープセグメンテーション(Medico 2020)と「メディコ:医療画像の透明性(MedAI 2021)」コンペティション。
本報告では, それぞれのコントリビューションを包括的に分析し, ベストパフォーマンスメソッドの強さを強調し, クリニックへの臨床翻訳の可能性について考察する。
論文 参考訳(メタデータ) (2023-07-30T16:08:45Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - Towards Transparency in Dermatology Image Datasets with Skin Tone
Annotations by Experts, Crowds, and an Algorithm [3.6888633946892044]
皮膚疾患のパブリックおよびプライベート画像データセットには、皮膚の色に関する情報がほとんど含まれない。
透明性を高めるための出発点として、AI研究者は、患者の光感受性の尺度から皮膚のトーンを推定する尺度まで、Fitzpatrick skin type (FST)の使用を適当に検討した。
ITA-FSTに基づくアルゴリズムは,大規模な画像データセットのアノテートには信頼性が低いことを示す。
論文 参考訳(メタデータ) (2022-07-06T19:50:39Z) - Improving Interpretability of Deep Neural Networks in Medical Diagnosis
by Investigating the Individual Units [24.761080054980713]
入力画像における重要な要素を可視化することにより,最近の帰属技術の有効性を実証し,診断の意思決定を説明する。
アンマキングマシンインテリジェンスの分析は、診断決定における説明可能性の必要性を示している。
論文 参考訳(メタデータ) (2021-07-19T11:49:31Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。