論文の概要: An explainable three dimension framework to uncover learning patterns: A unified look in variable sulci recognition
- arxiv url: http://arxiv.org/abs/2309.00903v2
- Date: Thu, 21 Mar 2024 15:12:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-22 20:19:41.801161
- Title: An explainable three dimension framework to uncover learning patterns: A unified look in variable sulci recognition
- Title(参考訳): 学習パターンを明らかにするための説明可能な3次元フレームワーク
- Authors: Michail Mamalakis, Heloise de Vareilles, Atheer AI-Manea, Samantha C. Mitchell, Ingrid Arartz, Lynn Egeland Morch-Johnsen, Jane Garrison, Jon Simons, Pietro Lio, John Suckling, Graham Murray,
- Abstract要約: そこで本研究では,深層学習ネットワークの出力を検証するための3次元説明可能性フレームワークを提案する。
挑戦的なTOP-OSLOデータセットを用いて、2つの高度な3Dディープラーニングネットワークをトレーニングし、テストした。
提案するフレームワークは、変数のsulcusに注釈を付けるだけでなく、隠されたAI知識も発見し、脳の解剖学と機能に関する理解を深めることを約束する。
- 参考スコア(独自算出の注目度): 2.960322639147262
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Explainable AI is crucial in medical imaging. In the challenging field of neuroscience, visual topics present a high level of complexity, particularly within three-dimensional space. The application of neuroscience, which involves identifying brain sulcal features from MRI, faces significant hurdles due to varying annotation protocols among experts and the intricate three-dimension functionality of the brain. Consequently, traditional explainability approaches fall short in effectively validating and evaluating these networks. To address this, we first present a mathematical formulation delineating various categories of explanation needs across diverse computer vision tasks, categorized into self-explanatory, semi-explanatory, non-explanatory, and new-pattern learning applications based on the reliability of the validation protocol. With respect to this mathematical formulation, we propose a 3D explainability framework aimed at validating the outputs of deep learning networks in detecting the paracingulate sulcus an essential brain anatomical feature. The framework integrates local 3D explanations, global explanations through dimensionality reduction, concatenated global explanations, and statistical shape features, unveiling new insights into pattern learning. We trained and tested two advanced 3D deep learning networks on the challenging TOP-OSLO dataset, significantly improving sulcus detection accuracy, particularly on the left hemisphere. During evaluation with diverse annotation protocols for this dataset, we highlighted the crucial role of an unbiased annotation process in achieving precise predictions and effective pattern learning within our proposed 3D framework. The proposed framework not only annotates the variable sulcus but also uncovers hidden AI knowledge, promising to advance our understanding of brain anatomy and function.
- Abstract(参考訳): 説明可能なAIは医療画像に不可欠である。
神経科学の挑戦的な分野において、視覚的なトピックは特に3次元空間内で高いレベルの複雑さを示す。
脳のsulcal特徴をMRIから特定する神経科学の応用は、専門家の間での様々なアノテーションプロトコルや脳の複雑な3次元機能によって、大きなハードルに直面している。
その結果、従来の説明可能性アプローチはこれらのネットワークを効果的に検証し評価するには不十分である。
そこで,本稿ではまず,多種多様なコンピュータビジョンタスクにまたがる説明要求を,検証プロトコルの信頼性に基づいて,自己説明的・半説明的・非説明的・新パターン学習アプリケーションに分類する数学的定式化を提案する。
この数学的定式化に関して,深層学習ネットワークの出力を検証することを目的とした3次元説明可能性フレームワークを提案する。
このフレームワークは、局所的な3D説明、次元の縮小によるグローバルな説明、連結されたグローバルな説明、および統計的形状の特徴を統合し、パターン学習に関する新たな洞察を公開する。
難解なTOP-OSLOデータセットを用いて2つの高度な3次元深層学習ネットワークを訓練・テストし、特に左半球でのサルカス検出精度を大幅に向上させた。
このデータセットに対する多様なアノテーションプロトコルによる評価において,提案する3Dフレームワークにおいて,正確な予測と効果的なパターン学習を実現する上で,曖昧なアノテーションプロセスが果たす重要な役割を強調した。
提案するフレームワークは、変数のsulcusに注釈を付けるだけでなく、隠されたAI知識も発見し、脳の解剖学と機能に関する理解を深めることを約束する。
関連論文リスト
- Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - Brain3D: Generating 3D Objects from fMRI [76.41771117405973]
被験者のfMRIデータを入力として利用する新しい3Dオブジェクト表現学習手法であるBrain3Dを設計する。
我々は,人間の視覚系の各領域の異なる機能的特徴を,我々のモデルが捉えていることを示す。
予備評価は、Brain3Dがシミュレーションシナリオで障害した脳領域を正常に識別できることを示唆している。
論文 参考訳(メタデータ) (2024-05-24T06:06:11Z) - Solving the enigma: Deriving optimal explanations of deep networks [3.9584068556746246]
本稿では,ディープネットワークの説明可能性を高めるための新しいフレームワークを提案する。
本フレームワークは,確立したXAI手法の様々な説明を統合し,非説明を用いて最適な説明を構築する。
以上の結果から,特定基準に基づく最適説明が導出可能であることが示唆された。
論文 参考訳(メタデータ) (2024-05-16T11:49:08Z) - Neuro-Vision to Language: Enhancing Brain Recording-based Visual Reconstruction and Language Interaction [8.63068449082585]
非侵襲的な脳記録の復号化は、人間の認知の理解を深める鍵となる。
本研究では,視覚変換器を用いた3次元脳構造と視覚的意味論を統合した。
マルチモーダル大モデル開発を支援するために,fMRI画像関連テキストデータを用いたfMRIデータセットを改良した。
論文 参考訳(メタデータ) (2024-04-30T10:41:23Z) - MindBridge: A Cross-Subject Brain Decoding Framework [60.58552697067837]
脳の復号化は、獲得した脳信号から刺激を再構築することを目的としている。
現在、脳の復号化はモデルごとのオブジェクトごとのパラダイムに限られている。
我々は,1つのモデルのみを用いることで,オブジェクト間脳デコーディングを実現するMindBridgeを提案する。
論文 参考訳(メタデータ) (2024-04-11T15:46:42Z) - DUE: Dynamic Uncertainty-Aware Explanation Supervision via 3D Imputation [12.96084790953902]
本稿では3次元説明指導のための動的不確実性対応説明監督(DUE)フレームワークを提案する。
提案手法は,様々な実世界の医療画像データセットに関する総合的な実験を通じて検証される。
論文 参考訳(メタデータ) (2024-03-16T06:49:32Z) - UniBrain: Universal Brain MRI Diagnosis with Hierarchical
Knowledge-enhanced Pre-training [66.16134293168535]
我々はUniBrainと呼ばれるユニバーサル脳MRI診断のための階層的知識強化事前訓練フレームワークを提案する。
具体的には、UniBrainは、定期的な診断から24,770のイメージレポートペアの大規模なデータセットを活用する。
論文 参考訳(メタデータ) (2023-09-13T09:22:49Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - An explainability framework for cortical surface-based deep learning [110.83289076967895]
我々は,皮質表面の深層学習のためのフレームワークを開発した。
まず,表面データに摂動に基づくアプローチを適用した。
我々の説明可能性フレームワークは,重要な特徴とその空間的位置を識別できるだけでなく,信頼性と有効性も示している。
論文 参考訳(メタデータ) (2022-03-15T23:16:49Z) - Joint Supervised and Self-Supervised Learning for 3D Real-World
Challenges [16.328866317851187]
ポイントクラウド処理と3D形状理解は、ディープラーニング技術が大きな可能性を実証する難しいタスクである。
ここでは、データ不足と大きなドメインギャップにより教師付き学習が失敗する合成および実世界の点雲を含むいくつかのシナリオについて考察する。
形状分類や部分分割の主課題を学習しながら3次元パズルを解くマルチタスクモデルにより、自己超越を利用して、標準的な特徴表現を豊かにすることを提案する。
論文 参考訳(メタデータ) (2020-04-15T23:34:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。