論文の概要: Data-Efficient Brain Connectome Analysis via Multi-Task Meta-Learning
- arxiv url: http://arxiv.org/abs/2206.04486v1
- Date: Thu, 9 Jun 2022 13:15:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 15:51:57.063186
- Title: Data-Efficient Brain Connectome Analysis via Multi-Task Meta-Learning
- Title(参考訳): マルチタスクメタラーニングによる脳コネクトーム解析
- Authors: Yi Yang, Yanqiao Zhu, Hejie Cui, Xuan Kan, Lifang He, Ying Guo, Carl
Yang
- Abstract要約: 本稿では,脳のコネクトーム解析のためのデータ効率訓練手法について検討する。
本稿では,サンプルサイズが大きいデータセット上でモデルをメタトレーニングし,その知識を小さなデータセットに伝達することを提案する。
また、アトラス変換と適応的タスクリライジングを含む2つの脳ネットワーク指向の設計についても検討する。
- 参考スコア(独自算出の注目度): 36.66408894156265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Brain networks characterize complex connectivities among brain regions as
graph structures, which provide a powerful means to study brain connectomes. In
recent years, graph neural networks have emerged as a prevalent paradigm of
learning with structured data. However, most brain network datasets are limited
in sample sizes due to the relatively high cost of data acquisition, which
hinders the deep learning models from sufficient training. Inspired by
meta-learning that learns new concepts fast with limited training examples,
this paper studies data-efficient training strategies for analyzing brain
connectomes in a cross-dataset setting. Specifically, we propose to meta-train
the model on datasets of large sample sizes and transfer the knowledge to small
datasets. In addition, we also explore two brain-network-oriented designs,
including atlas transformation and adaptive task reweighing. Compared to other
pre-training strategies, our meta-learning-based approach achieves higher and
stabler performance, which demonstrates the effectiveness of our proposed
solutions. The framework is also able to derive new insights regarding the
similarities among datasets and diseases in a data-driven fashion.
- Abstract(参考訳): 脳ネットワークは、脳領域間の複雑なコネクティビティをグラフ構造として特徴づけ、脳コネクトームを研究する強力な手段を提供する。
近年、グラフニューラルネットワークは構造化データによる学習の主流パラダイムとして浮上している。
しかし、ほとんどの脳ネットワークデータセットは、十分なトレーニングからディープラーニングモデルを妨げる比較的高いデータ取得コストのために、サンプルサイズに制限されている。
限られた学習例で新しい概念を素早く学習するメタラーニングにインスパイアされた本研究では,脳のコネクトームを分析するためのデータ効率のトレーニング戦略について研究する。
具体的には,大規模なサンプルサイズのデータセット上でモデルをメタトレーニングし,知識を小さなデータセットに転送することを提案する。
さらに,atlas変換とadaptive task reweighingという,2つのブレインネットワーク指向の設計についても検討した。
他の事前学習戦略と比較して、メタラーニングに基づくアプローチは、より高い安定的な性能を実現し、提案手法の有効性を示す。
このフレームワークは、データセットと疾患の類似性に関する新たな洞察を、データ駆動方式で導き出すこともできる。
関連論文リスト
- Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - Iterative self-transfer learning: A general methodology for response
time-history prediction based on small dataset [0.0]
本研究では,小さなデータセットに基づいてニューラルネットワークを学習するための反復的自己伝達学習手法を提案する。
提案手法は,小さなデータセットに対して,ほぼ一桁の精度でモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T18:48:04Z) - Exploiting Large Neuroimaging Datasets to Create Connectome-Constrained
Approaches for more Robust, Efficient, and Adaptable Artificial Intelligence [4.998666322418252]
我々は、脳の地図を含む大きなニューロイメージングデータセットを利用するパイプラインを構想する。
我々は,繰り返しるサブサーキットやモチーフの発見手法を開発した。
第3に、チームはフルーツフライコネクトームのメモリ形成の回路を分析し、新しい生成的リプレイアプローチの設計を可能にした。
論文 参考訳(メタデータ) (2023-05-26T23:04:53Z) - Incomplete Multimodal Learning for Complex Brain Disorders Prediction [65.95783479249745]
本稿では,変換器と生成対向ネットワークを用いた不完全なマルチモーダルデータ統合手法を提案する。
アルツハイマー病神経画像イニシアチブコホートを用いたマルチモーダルイメージングによる認知変性と疾患予後の予測に本手法を適用した。
論文 参考訳(メタデータ) (2023-05-25T16:29:16Z) - PTGB: Pre-Train Graph Neural Networks for Brain Network Analysis [39.16619345610152]
臨床結果に関係なく,脳内ネットワーク構造をキャプチャするGNN事前学習フレームワークPTGBを提案する。
PTGBは,(1)脳ネットワークに特化して設計された教師なし事前学習技術で,タスク固有のラベルを持たない大規模データセットからの学習を可能にすること,(2)異なるROIシステムを持つデータセット間の知識伝達を容易にするデータ駆動型パーセルレーションアトラスマッピングパイプラインである。
論文 参考訳(メタデータ) (2023-05-20T21:07:47Z) - Concept Discovery for Fast Adapatation [42.81705659613234]
データ特徴間の構造をメタラーニングすることで、より効果的な適応を実現する。
提案手法は,概念ベースモデル非依存メタラーニング(COMAML)を用いて,合成されたデータセットと実世界のデータセットの両方に対して,構造化データの一貫した改善を実現する。
論文 参考訳(メタデータ) (2023-01-19T02:33:58Z) - Functional2Structural: Cross-Modality Brain Networks Representation
Learning [55.24969686433101]
脳ネットワーク上のグラフマイニングは、臨床表現型および神経変性疾患のための新しいバイオマーカーの発見を促進する可能性がある。
本稿では,Deep Signed Brain Networks (DSBN) と呼ばれる新しいグラフ学習フレームワークを提案する。
臨床表現型および神経変性疾患予測の枠組みを,2つの独立した公開データセットを用いて検証した。
論文 参考訳(メタデータ) (2022-05-06T03:45:36Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Dataset Condensation with Gradient Matching [36.14340188365505]
本研究では,大規模なデータセットを,深層ニューラルネットワークをスクラッチからトレーニングするための情報的合成サンプルの小さなセットに凝縮させることを学習する,データセット凝縮という,データ効率のよい学習のためのトレーニングセット合成手法を提案する。
いくつかのコンピュータビジョンベンチマークでその性能を厳格に評価し、最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-10T16:30:52Z) - Understanding the Effects of Data Parallelism and Sparsity on Neural
Network Training [126.49572353148262]
ニューラルネットワークトレーニングにおける2つの要因として,データ並列性と疎性について検討する。
有望なメリットにもかかわらず、ニューラルネットワークトレーニングに対する彼らの影響を理解することは、依然として明白である。
論文 参考訳(メタデータ) (2020-03-25T10:49:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。