論文の概要: An explainability framework for cortical surface-based deep learning
- arxiv url: http://arxiv.org/abs/2203.08312v1
- Date: Tue, 15 Mar 2022 23:16:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 15:59:07.494273
- Title: An explainability framework for cortical surface-based deep learning
- Title(参考訳): 表層深層学習のための説明可能性フレームワーク
- Authors: Fernanda L. Ribeiro, Steffen Bollmann, Ross Cunnington, and Alexander
M. Puckett
- Abstract要約: 我々は,皮質表面の深層学習のためのフレームワークを開発した。
まず,表面データに摂動に基づくアプローチを適用した。
我々の説明可能性フレームワークは,重要な特徴とその空間的位置を識別できるだけでなく,信頼性と有効性も示している。
- 参考スコア(独自算出の注目度): 110.83289076967895
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The emergence of explainability methods has enabled a better comprehension of
how deep neural networks operate through concepts that are easily understood
and implemented by the end user. While most explainability methods have been
designed for traditional deep learning, some have been further developed for
geometric deep learning, in which data are predominantly represented as graphs.
These representations are regularly derived from medical imaging data,
particularly in the field of neuroimaging, in which graphs are used to
represent brain structural and functional wiring patterns (brain connectomes)
and cortical surface models are used to represent the anatomical structure of
the brain. Although explainability techniques have been developed for
identifying important vertices (brain areas) and features for graph
classification, these methods are still lacking for more complex tasks, such as
surface-based modality transfer (or vertex-wise regression). Here, we address
the need for surface-based explainability approaches by developing a framework
for cortical surface-based deep learning, providing a transparent system for
modality transfer tasks. First, we adapted a perturbation-based approach for
use with surface data. Then, we applied our perturbation-based method to
investigate the key features and vertices used by a geometric deep learning
model developed to predict brain function from anatomy directly on a cortical
surface model. We show that our explainability framework is not only able to
identify important features and their spatial location but that it is also
reliable and valid.
- Abstract(参考訳): 説明可能性手法の出現により、エンドユーザが容易に理解し実装できる概念を通じて、ディープニューラルネットワークがどのように動作するのかをより深く理解できるようになった。
ほとんどの説明可能性法は従来の深層学習のために設計されているが、幾何深層学習では、データは主にグラフとして表現される。
これらの表現は、特に神経イメージングの分野において、脳の構造的および機能的配線パターン(脳コネクトーム)を表すグラフと、脳の解剖学的構造を表す皮質表面モデルが使用される医療画像データから定期的に派生している。
重要な頂点(脳領域)とグラフ分類の特徴を特定するための説明可能性技術が開発されているが、これらの手法は、面ベースモダリティ変換(あるいは頂点回帰)のようなより複雑なタスクにはまだ欠けている。
そこで我々は,皮質表面の深層学習のためのフレームワークを開発し,モダリティ伝達タスクのための透過的なシステムを提供することにより,表面説明可能性のアプローチの必要性に対処する。
まず,表面データに摂動に基づくアプローチを適用した。
そこで我々は,大脳皮質表面モデルから直接解剖学から脳機能を予測するために開発された幾何学的深層学習モデルで用いられる重要な特徴と頂点を解析するために摂動法を適用した。
我々の説明可能性フレームワークは,重要な特徴とその空間的位置を識別できるだけでなく,信頼性と有効性も示している。
関連論文リスト
- Autoassociative Learning of Structural Representations for Modeling and Classification in Medical Imaging [0.157286095422595]
本研究では,視覚的プリミティブの観点から観察画像の再構成によって学習するニューロシンボリックシステムのクラスを提案する。
組織像の異常診断に応用すると,従来のディープラーニングアーキテクチャよりも分類精度が優れていた。
論文 参考訳(メタデータ) (2024-11-18T21:29:50Z) - Graph Neural Networks for Brain Graph Learning: A Survey [53.74244221027981]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのマイニングにおいて大きな優位性を示している。
脳障害解析のための脳グラフ表現を学習するGNNが最近注目を集めている。
本稿では,GNNを利用した脳グラフ学習の成果をレビューすることで,このギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-06-01T02:47:39Z) - Graph Neural Operators for Classification of Spatial Transcriptomics
Data [1.408706290287121]
マウス脳組織サンプルにおける脳領域の予測に対する神経オペレーターの適用の有効性を検証するために,様々なグラフニューラルネットワークアプローチを取り入れた研究を提案する。
グラフニューラルネットワークのアプローチでは,F1スコアが72%近く向上し,すべてのベースラインやグラフネットワークのアプローチを上回った。
論文 参考訳(メタデータ) (2023-02-01T18:32:06Z) - Functional2Structural: Cross-Modality Brain Networks Representation
Learning [55.24969686433101]
脳ネットワーク上のグラフマイニングは、臨床表現型および神経変性疾患のための新しいバイオマーカーの発見を促進する可能性がある。
本稿では,Deep Signed Brain Networks (DSBN) と呼ばれる新しいグラフ学習フレームワークを提案する。
臨床表現型および神経変性疾患予測の枠組みを,2つの独立した公開データセットを用いて検証した。
論文 参考訳(メタデータ) (2022-05-06T03:45:36Z) - Feature visualization for convolutional neural network models trained on
neuroimaging data [0.0]
畳み込みニューラルネットワーク(CNN)の機能可視化による最初の結果を示す。
我々は、MRIデータに基づく性分類や人為的病変分類など、さまざまなタスクのためにCNNを訓練した。
得られた画像は、その形状を含む人工的な病変の学習概念を明らかにするが、性分類タスクにおける抽象的な特徴を解釈することは困難である。
論文 参考訳(メタデータ) (2022-03-24T15:24:38Z) - Self-Supervised Graph Representation Learning for Neuronal Morphologies [75.38832711445421]
ラベルのないデータセットから3次元神経形態の低次元表現を学習するためのデータ駆動型アプローチであるGraphDINOを提案する。
2つの異なる種と複数の脳領域において、この方法では、専門家による手動の特徴に基づく分類と同程度に形態学的細胞型クラスタリングが得られることを示す。
提案手法は,大規模データセットにおける新しい形態的特徴や細胞型の発見を可能にする可能性がある。
論文 参考訳(メタデータ) (2021-12-23T12:17:47Z) - Neuronal Learning Analysis using Cycle-Consistent Adversarial Networks [4.874780144224057]
我々は、-CycleGANと呼ばれる深層生成モデルを用いて、前学習と後学習の神経活動の間の未知のマッピングを学習する。
我々は,カルシウム蛍光信号を前処理し,訓練し,評価するためのエンドツーエンドパイプラインを開発し,その結果の深層学習モデルを解釈する手法を開発した。
論文 参考訳(メタデータ) (2021-11-25T13:24:19Z) - Graph-Based Deep Learning for Medical Diagnosis and Analysis: Past,
Present and Future [36.58189530598098]
医療データを分析するために、機械学習、特にディープラーニングメソッドをどのように活用するかを検討することが重要になっている。
既存のメソッドの大きな制限は、グリッドのようなデータにフォーカスすることです。
グラフニューラルネットワークは、生物学的システムに存在する暗黙の情報を利用することによって、大きな注目を集めている。
論文 参考訳(メタデータ) (2021-05-27T13:32:45Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Neural Topological SLAM for Visual Navigation [112.73876869904]
意味論を生かし、近似幾何学的推論を行う空間のトポロジ的表現を設計する。
本稿では,ノイズのあるアクティベーションの下でそのような表現を構築し,維持し,使用することができる教師付き学習ベースアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2020-05-25T17:56:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。