論文の概要: Does context matter in digital pathology?
- arxiv url: http://arxiv.org/abs/2405.14301v1
- Date: Thu, 23 May 2024 08:21:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-24 18:14:32.471211
- Title: Does context matter in digital pathology?
- Title(参考訳): デジタル病理学でコンテキストは重要か?
- Authors: Paulina Tomaszewska, Mateusz Sperkowski, Przemysław Biecek,
- Abstract要約: 視力の深層学習モデルが病理組織学者の慣行に従っているかどうかを解析し,病変の一部を診断する場合,周囲の組織も考慮する。
その結果,DLモデルの性能は文脈情報の量を制限すると著しく低下することがわかった。
モデルがいくつかの画像のように不安定に振る舞う場合があり、状況に応じて何回も予測を変更できることを示す。
- 参考スコア(独自算出の注目度): 3.9940425551415597
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The development of Artificial Intelligence for healthcare is of great importance. Models can sometimes achieve even superior performance to human experts, however, they can reason based on spurious features. This is not acceptable to the experts as it is expected that the models catch the valid patterns in the data following domain expertise. In the work, we analyse whether Deep Learning (DL) models for vision follow the histopathologists' practice so that when diagnosing a part of a lesion, they take into account also the surrounding tissues which serve as context. It turns out that the performance of DL models significantly decreases when the amount of contextual information is limited, therefore contextual information is valuable at prediction time. Moreover, we show that the models sometimes behave in an unstable way as for some images, they change the predictions many times depending on the size of the context. It may suggest that partial contextual information can be misleading.
- Abstract(参考訳): 医療のための人工知能の開発は非常に重要である。
モデルは、時に人間の専門家よりも優れたパフォーマンスを達成することができるが、素早い特徴に基づいて推論することができる。
ドメインの専門知識に従って、モデルがデータ内の有効なパターンをキャッチできることが期待されるため、これは専門家には受け入れられません。
本研究は,視力の深層学習(DL)モデルが病理病理学者の慣行に従っているかどうかを解析し,病変の一部を診断する場合,周囲の組織もコンテキストとして考慮する。
その結果,DLモデルの性能は文脈情報の量を制限すると著しく低下することがわかった。
さらに,いくつかの画像のようにモデルが不安定に振る舞う場合があり,コンテキストの大きさによって何回も予測を変更できることを示す。
部分的な文脈情報は誤解を招く可能性がある。
関連論文リスト
- XForecast: Evaluating Natural Language Explanations for Time Series Forecasting [72.57427992446698]
時系列予測は、特に正確な予測に依存するステークホルダーにとって、意思決定を支援する。
伝統的に説明可能なAI(XAI)メソッドは、機能や時間的重要性を基盤とするものであり、専門家の知識を必要とすることが多い。
時系列データにおける複雑な因果関係のため,予測NLEの評価は困難である。
論文 参考訳(メタデータ) (2024-10-18T05:16:39Z) - Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - Medical Vision-Language Pre-Training for Brain Abnormalities [96.1408455065347]
本稿では,PubMedなどの公共リソースから,医用画像・テキスト・アライメントデータを自動的に収集する方法を示す。
特に,まず大きな脳画像テキストデータセットを収集することにより,事前学習プロセスの合理化を図るパイプラインを提案する。
また,医療領域におけるサブフィギュアをサブキャプションにマッピングするというユニークな課題についても検討した。
論文 参考訳(メタデータ) (2024-04-27T05:03:42Z) - Interpretable Prediction and Feature Selection for Survival Analysis [18.987678432106563]
我々は、強い差別と解釈可能性の両方を達成する新しい生存分析モデルであるDyS(dice'と発音する)を提示する。
DySは、特徴選択と解釈可能な予測を1つのモデルに組み合わせた、機能スパースな一般化付加モデルである。
論文 参考訳(メタデータ) (2024-04-23T02:36:54Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Looking deeper into interpretable deep learning in neuroimaging: a
comprehensive survey [20.373311465258393]
本稿では、ニューロイメージング領域における解釈可能なディープラーニングモデルについて包括的にレビューする。
近年の神経画像研究は、モデル解釈可能性を利用して、モデル予測に最も関係のある解剖学的および機能的脳変化を捉える方法について論じている。
論文 参考訳(メタデータ) (2023-07-14T04:50:04Z) - Trade-offs in Fine-tuned Diffusion Models Between Accuracy and
Interpretability [5.865936619867771]
生成拡散モデルにおける従来の計測値とモデル解釈可能性による画像の忠実度との間に連続的なトレードオフが生じる。
我々は、真に解釈可能な生成モデルを開発するための設計原則のセットを提示する。
論文 参考訳(メタデータ) (2023-03-31T09:11:26Z) - Differentiable Outlier Detection Enable Robust Deep Multimodal Analysis [20.316056261749946]
本稿では,明示的な知識グラフを取り入れたエンドツーエンドのビジョンと言語モデルを提案する。
また,暗黙的ネットワーク演算子を用いた対話型アウト・オブ・ディストリビューション・レイヤを導入する。
実際に,視覚的質問応答,視覚的推論,画像テキスト検索など,複数の視覚および言語下流タスクにモデルを適用した。
論文 参考訳(メタデータ) (2023-02-11T05:46:21Z) - Implications of Topological Imbalance for Representation Learning on
Biomedical Knowledge Graphs [16.566710222582618]
知識グラフ埋め込みモデルが構造的不均衡によってどのように影響を受けるかを示す。
グラフトポロジを摂動させて、ランダムで生物学的に無意味な情報によって遺伝子ランクを人工的に変化させる方法を示す。
論文 参考訳(メタデータ) (2021-12-13T11:20:36Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。