論文の概要: Analyzing the Effect of $k$-Space Features in MRI Classification Models
- arxiv url: http://arxiv.org/abs/2409.13589v1
- Date: Fri, 20 Sep 2024 15:43:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 06:30:58.033361
- Title: Analyzing the Effect of $k$-Space Features in MRI Classification Models
- Title(参考訳): MRI分類モデルにおける$k$-Space特徴の影響の解析
- Authors: Pascal Passigan, Vayd Ramkumar,
- Abstract要約: 医用イメージングに適した説明可能なAI手法を開発した。
我々は、画像領域と周波数領域の両方にわたるMRIスキャンを分析する畳み込みニューラルネットワーク(CNN)を採用している。
このアプローチは、初期のトレーニング効率を高めるだけでなく、追加機能がモデル予測にどのように影響するかの理解を深めます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The integration of Artificial Intelligence (AI) in medical diagnostics is often hindered by model opacity, where high-accuracy systems function as "black boxes" without transparent reasoning. This limitation is critical in clinical settings, where trust and reliability are paramount. To address this, we have developed an explainable AI methodology tailored for medical imaging. By employing a Convolutional Neural Network (CNN) that analyzes MRI scans across both image and frequency domains, we introduce a novel approach that incorporates Uniform Manifold Approximation and Projection UMAP] for the visualization of latent input embeddings. This approach not only enhances early training efficiency but also deepens our understanding of how additional features impact the model predictions, thereby increasing interpretability and supporting more accurate and intuitive diagnostic inferences
- Abstract(参考訳): 医療診断における人工知能(AI)の統合は、しばしばモデル不透明さによって妨げられ、高い精度のシステムは透明な推論なしで「ブラックボックス」として機能する。
この制限は、信頼性と信頼性が最重要である臨床環境において重要である。
これを解決するために、医用イメージングに適した説明可能なAI手法を開発した。
画像領域と周波数領域の両方にわたるMRIスキャンを解析する畳み込みニューラルネットワーク(CNN)を用いることで,一様マニフォールド近似と投影UMAPを組み込んだ新しいアプローチを導入し,潜時入力埋め込みの可視化を行う。
このアプローチは、早期トレーニング効率を高めるだけでなく、追加機能がモデル予測に与える影響の理解を深め、解釈可能性を高め、より正確で直感的な診断推論をサポートする。
関連論文リスト
- Self-Explaining Hypergraph Neural Networks for Diagnosis Prediction [45.89562183034469]
既存のディープラーニング診断予測モデルと本質的な解釈性は、過去の診断や病院訪問の度に注意重みを割り当てることが多い。
我々は、パーソナライズされた簡潔で忠実な説明を提供するように設計された、自己説明型ハイパーグラフニューラルネットワークモデルSHyを紹介する。
SHyは高次疾患の相互作用を捉え、パーソナライズされた説明として異なる時間的表現型を抽出する。
論文 参考訳(メタデータ) (2025-02-15T06:33:02Z) - Hybrid Interpretable Deep Learning Framework for Skin Cancer Diagnosis: Integrating Radial Basis Function Networks with Explainable AI [1.1049608786515839]
皮膚がんは世界中で最も流行し、致命的な疾患の1つである。
本稿では,畳み込みニューラルネットワーク(CNN)とラジアル基底関数(RBF)ネットワークを統合するハイブリッドディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-24T19:19:02Z) - Explainable Diagnosis Prediction through Neuro-Symbolic Integration [11.842565087408449]
我々は、診断予測のための説明可能なモデルを開発するために、神経象徴的手法、特に論理ニューラルネットワーク(LNN)を用いている。
私たちのモデル、特に$M_textmulti-pathway$と$M_textcomprehensive$は、従来のモデルよりも優れたパフォーマンスを示します。
これらの知見は、医療AI応用における精度と説明可能性のギャップを埋める神経象徴的アプローチの可能性を強調している。
論文 参考訳(メタデータ) (2024-10-01T22:47:24Z) - L-SFAN: Lightweight Spatially-focused Attention Network for Pain Behavior Detection [44.016805074560295]
慢性的な腰痛 (CLBP) は世界中の何百万もの患者を悩ませており、個人の健康や医療システムに対する経済的負担に大きな影響を及ぼす。
人工知能(AI)とディープラーニングは、リハビリ戦略を改善するために痛みに関連する行動を分析するための有望な道を提供するが、畳み込みニューラルネットワーク(CNN)を含む現在のモデルには限界がある。
我々は、モーションキャプチャーと表面筋電図センサからデータの空間的時間的相互作用をキャプチャする2Dフィルタを組み込んだ軽量CNNアーキテクチャであるhbox EmoL-SFANを紹介する。
論文 参考訳(メタデータ) (2024-06-07T12:01:37Z) - ContrastDiagnosis: Enhancing Interpretability in Lung Nodule Diagnosis
Using Contrastive Learning [23.541034347602935]
臨床医のブラックボックスモデルに対する不信は、AI製品の臨床展開を妨げている。
ContrastDiagnosis(ContrastDiagnosis)を提案する。
AUCは0.977で高い診断精度を達成し、高い透明性と説明可能性を維持した。
論文 参考訳(メタデータ) (2024-03-08T13:00:52Z) - Diagnose Like a Radiologist: Hybrid Neuro-Probabilistic Reasoning for
Attribute-Based Medical Image Diagnosis [42.624671531003166]
本稿では,属性に基づく医用画像診断のためのハイブリッド型ニューロ確率推論アルゴリズムを提案する。
我々は,ハイブリッド推論アルゴリズムを2つの困難な画像診断タスクに適用することに成功している。
論文 参考訳(メタデータ) (2022-08-19T12:06:46Z) - Towards Trustworthy Healthcare AI: Attention-Based Feature Learning for
COVID-19 Screening With Chest Radiography [70.37371604119826]
信頼性を備えたAIモデルの構築は、特に医療などの規制領域において重要である。
これまでの研究では、畳み込みニューラルネットワークをバックボーンアーキテクチャとして使用していた。
本稿では,視覚変換器を用いた特徴学習手法を提案する。
論文 参考訳(メタデータ) (2022-07-19T14:55:42Z) - Improving Interpretability of Deep Neural Networks in Medical Diagnosis
by Investigating the Individual Units [24.761080054980713]
入力画像における重要な要素を可視化することにより,最近の帰属技術の有効性を実証し,診断の意思決定を説明する。
アンマキングマシンインテリジェンスの分析は、診断決定における説明可能性の必要性を示している。
論文 参考訳(メタデータ) (2021-07-19T11:49:31Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z) - Learning Interpretable Microscopic Features of Tumor by Multi-task
Adversarial CNNs To Improve Generalization [1.7371375427784381]
既存のCNNモデルはブラックボックスとして機能し、医師が重要な診断機能がモデルによって使用されることを保証しない。
ここでは,マルチタスクと敵の損失を両立させる不確実性に基づく重み付けの組み合わせをエンド・ツー・エンドで学習することにより,病理的特徴に焦点を合わせることを推奨する。
AUC 0.89 (0.01) がベースラインであるAUC 0.86 (0.005) に対して最も高い値を示した。
論文 参考訳(メタデータ) (2020-08-04T12:10:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。