論文の概要: A Framework for Interpretability in Machine Learning for Medical Imaging
- arxiv url: http://arxiv.org/abs/2310.01685v2
- Date: Wed, 20 Dec 2023 14:19:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 21:49:55.971860
- Title: A Framework for Interpretability in Machine Learning for Medical Imaging
- Title(参考訳): 医用画像のための機械学習における解釈可能性の枠組み
- Authors: Alan Q. Wang, Batuhan K. Karaman, Heejong Kim, Jacob Rosenthal, Rachit
Saluja, Sean I. Young, Mert R. Sabuncu
- Abstract要約: 属性Iにおける解釈可能性の目標と要素を形式化する必要性を特定する。
解釈可能性の5つの中核となる要素は、局所化、視覚認識性、物理的帰属、モデルの透明性、行動可能性である。
本稿では,医療画像の分野での解釈可能性の必要性を定式化する。
- 参考スコア(独自算出の注目度): 9.606930884870089
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Interpretability for machine learning models in medical imaging (MLMI) is an
important direction of research. However, there is a general sense of murkiness
in what interpretability means. Why does the need for interpretability in MLMI
arise? What goals does one actually seek to address when interpretability is
needed? To answer these questions, we identify a need to formalize the goals
and elements of interpretability in MLMI. By reasoning about real-world tasks
and goals common in both medical image analysis and its intersection with
machine learning, we identify five core elements of interpretability:
localization, visual recognizability, physical attribution, model transparency,
and actionability. From this, we arrive at a framework for interpretability in
MLMI, which serves as a step-by-step guide to approaching interpretability in
this context. Overall, this paper formalizes interpretability needs in the
context of medical imaging, and our applied perspective clarifies concrete
MLMI-specific goals and considerations in order to guide method design and
improve real-world usage. Our goal is to provide practical and didactic
information for model designers and practitioners, inspire developers of models
in the medical imaging field to reason more deeply about what interpretability
is achieving, and suggest future directions of interpretability research.
- Abstract(参考訳): 医療画像(MLMI)における機械学習モデルの解釈可能性は研究の重要な方向である。
しかし、解釈可能性の意味には全般的な混乱感がある。
なぜMLMIにおける解釈可能性の必要性が生じるのか?
解釈可能性が必要なとき、実際に対処しようとする目標は何でしょう?
これらの疑問に答えるために、MLMIにおける解釈可能性の目標と要素を形式化する必要性を特定する。
医用画像解析と機械学習との共通点の両方に共通する実世界の課題と目標を推論することにより、我々は、解釈可能性の5つの中核となる要素を同定する。
そこから、MLMIの解釈可能性のためのフレームワークに到達し、このコンテキストにおける解釈可能性へのステップバイステップガイドとして機能します。
本稿では,医療画像の文脈における解釈可能性の必要性を定式化し,具体的MLMI固有の目標と考察を明確にし,手法設計の指導と実世界の利用改善を図る。
私たちの目標は、モデル設計者や実践者に対して実践的でディダクティックな情報を提供し、医療画像分野のモデルの開発者を刺激し、解釈可能性の達成についてより深く推論し、解釈可能性研究の今後の方向性を提案することである。
関連論文リスト
- A Survey of Medical Vision-and-Language Applications and Their Techniques [48.268198631277315]
医療ビジョン・アンド・ランゲージモデル(MVLM)は、複雑な医療データを解釈するための自然言語インタフェースを提供する能力から、大きな関心を集めている。
本稿では,MVLMの概要と適用した各種医療課題について概観する。
また、これらのタスクに使用するデータセットについても検討し、標準化された評価指標に基づいて異なるモデルの性能を比較した。
論文 参考訳(メタデータ) (2024-11-19T03:27:05Z) - Towards Multi-dimensional Explanation Alignment for Medical Classification [16.799101204390457]
Med-MICN (Medical Multi-dimensional Interpretable Concept Network) という新しいフレームワークを提案する。
Med-MICNは、ニューラルシンボリック推論、コンセプトセマンティクス、サリエンシマップなど、さまざまな角度の解釈可能性アライメントを提供する。
その利点は、高い予測精度、複数の次元にわたる解釈可能性、エンドツーエンドの概念ラベリングプロセスによる自動化である。
論文 参考訳(メタデータ) (2024-10-28T20:03:19Z) - From Understanding to Utilization: A Survey on Explainability for Large
Language Models [27.295767173801426]
この調査は、Large Language Models (LLMs) における説明可能性の向上を示唆している。
主に、トレーニング済みの Transformer ベースの LLM に重点を置いています。
説明可能性の活用を考える際に、モデル編集、制御生成、モデル拡張に集中するいくつかの魅力的な方法を検討する。
論文 参考訳(メタデータ) (2024-01-23T16:09:53Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Align, Reason and Learn: Enhancing Medical Vision-and-Language
Pre-training with Knowledge [68.90835997085557]
本稿では,3つの視点から構造化された医療知識を高めるための体系的かつ効果的なアプローチを提案する。
まず、視覚エンコーダと言語エンコーダの表現を知識を通して整列する。
次に,多モード融合モデルに知識を注入し,入力画像とテキストの補足として知識を用いた推論を可能にする。
第3に、知識によって引き起こされるプレテキストタスクを設計することで、画像やテキストの最も重要な情報に重点を置くよう、モデルを指導する。
論文 参考訳(メタデータ) (2022-09-15T08:00:01Z) - Scientific Inference With Interpretable Machine Learning: Analyzing Models to Learn About Real-World Phenomena [4.312340306206884]
解釈可能な機械学習は、モデルを論理的に分析して解釈を導出することで解を提供する。
現在のIML研究は、科学的推論にMLモデルを活用するのではなく、MLモデルの監査に重点を置いている。
本稿では、モデルだけでなく、その表現する現象を照らし出すIMLメソッドを定式化した「プロパティ記述子」を設計するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-11T10:13:21Z) - The Need for Interpretable Features: Motivation and Taxonomy [69.07189753428553]
我々は、「解釈可能な特徴」という用語は、機械学習の説明の有用性に影響を与える機能の全範囲を捉えるのに十分な具体的あるいは詳細ではないと主張している。
本稿では,(1)解釈可能な機能空間と呼ぶもの,あるいはドメインの専門家が現実の行動を取る上で有用な機能の現状に,より注意を払わなければならない,という3つの重要な教訓を論じる。
論文 参考訳(メタデータ) (2022-02-23T19:19:14Z) - MIMO: Mutual Integration of Patient Journey and Medical Ontology for
Healthcare Representation Learning [49.57261599776167]
本稿では、医療表現学習と予測分析のための、エンドツーエンドの堅牢なトランスフォーマーベースのソリューション、患者旅行の相互統合、医療オントロジー(MIMO)を提案する。
論文 参考訳(メタデータ) (2021-07-20T07:04:52Z) - Human Factors in Model Interpretability: Industry Practices, Challenges,
and Needs [28.645803845464915]
モデルを計画し、構築し、使用しながら、解釈可能性のためにどのように考え、設計するかを理解するために、業界実践者とのインタビューを行います。
この結果に基づいて、MLモデルを多用する組織内に存在する、解釈可能性の役割、プロセス、目標、戦略を区別する。
本分析から得られた解釈可能性作業の特徴は、モデル解釈可能性はしばしば、異なる役割の人物間の協調と精神モデルの比較を伴っていることを示唆している。
論文 参考訳(メタデータ) (2020-04-23T19:54:39Z) - Benchmarking Machine Reading Comprehension: A Psychological Perspective [45.85089157315507]
機械学習理解(MRC)は自然言語理解のベンチマークとして注目されている。
MRCの従来のタスク設計は、モデル解釈以上の説明可能性に欠けていた。
本稿では,心理学と心理指標に基づくMRCデータセットの設計に関する理論的基礎を提供する。
論文 参考訳(メタデータ) (2020-04-04T11:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。