論文の概要: Pipeline-Invariant Representation Learning for Neuroimaging
- arxiv url: http://arxiv.org/abs/2208.12909v3
- Date: Mon, 16 Oct 2023 02:33:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 07:00:22.096057
- Title: Pipeline-Invariant Representation Learning for Neuroimaging
- Title(参考訳): 神経画像のためのパイプライン不変表現学習
- Authors: Xinhui Li, Alex Fedorov, Mrinal Mathur, Anees Abrol, Gregory Kiar,
Sergey Plis, Vince Calhoun
- Abstract要約: 我々は,前処理パイプラインの選択が教師付き学習モデルの下流性能に与える影響を評価する。
本稿では,2つのパイプライン不変表現学習手法,MPSLとPXLを提案する。
これらの結果は,本モデルがパイプライン関連バイアスを緩和し,脳-フェノタイプモデルにおける予測ロバスト性の向上に有効であることを示唆している。
- 参考スコア(独自算出の注目度): 5.502218439301424
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep learning has been widely applied in neuroimaging, including predicting
brain-phenotype relationships from magnetic resonance imaging (MRI) volumes.
MRI data usually requires extensive preprocessing prior to modeling, but
variation introduced by different MRI preprocessing pipelines may lead to
different scientific findings, even when using the identical data. Motivated by
the data-centric perspective, we first evaluate how preprocessing pipeline
selection can impact the downstream performance of a supervised learning model.
We next propose two pipeline-invariant representation learning methodologies,
MPSL and PXL, to improve robustness in classification performance and to
capture similar neural network representations. Using 2000 human subjects from
the UK Biobank dataset, we demonstrate that proposed models present unique and
shared advantages, in particular that MPSL can be used to improve out-of-sample
generalization to new pipelines, while PXL can be used to improve within-sample
prediction performance. Both MPSL and PXL can learn more similar
between-pipeline representations. These results suggest that our proposed
models can be applied to mitigate pipeline-related biases, and to improve
prediction robustness in brain-phenotype modeling.
- Abstract(参考訳): 深層学習は、磁気共鳴画像(MRI)ボリュームから脳-フェノタイプ関係を予測することを含む、神経イメージングに広く応用されている。
MRIデータは通常、モデリングに先立って広範囲の事前処理を必要とするが、異なるMRI前処理パイプラインによって導入された変化は、同一のデータを使用しても異なる科学的発見につながる可能性がある。
データ中心の観点から、我々はまず、前処理パイプラインの選択が教師付き学習モデルの下流性能にどのように影響するかを評価する。
次に,2つのパイプライン不変表現学習手法,MPSLとPXLを提案する。
英国バイオバンクデータセットの2000人の被験者を用いて、提案モデルがユニークかつ共有的な利点を示し、特にmpslを新しいパイプラインへのサンプル外一般化の改善に、pxlをサンプル内予測性能向上に使用できることを実証した。
MPSLとPXLはどちらも、より類似したパイプ間表現を学習することができる。
これらの結果は,提案モデルを用いてパイプライン関連バイアスを軽減し,脳表現型モデルにおける予測ロバスト性を改善することを示唆する。
関連論文リスト
- Mitigating analytical variability in fMRI results with style transfer [0.9217021281095907]
我々は、fMRI統計マップの計算に使用されるパイプラインを、スタイルコンポーネントとみなすことができると仮定する。
本稿では,GAN(Generative Adversarial Networks)とDiffusion Models(Diffusion Models)の2つの生成モデルを用いて,パイプライン間の統計マップの変換を提案する。
論文 参考訳(メタデータ) (2024-04-04T07:49:39Z) - Optimizing Sampling Patterns for Compressed Sensing MRI with Diffusion
Generative Models [75.52575380824051]
圧縮センシングマルチコイルMRIにおけるサブサンプリングパターンを最適化する学習手法を提案する。
拡散モデルとMRI計測プロセスにより得られた後部平均推定値に基づいて1段階の再構成を行う。
本手法では,効果的なサンプリングパターンの学習には5つのトレーニング画像が必要である。
論文 参考訳(メタデータ) (2023-06-05T22:09:06Z) - Modality-Agnostic Variational Compression of Implicit Neural
Representations [96.35492043867104]
Inlicit Neural Representation (INR) としてパラメータ化されたデータの関数的ビューに基づくモーダリティ非依存型ニューラル圧縮アルゴリズムを提案する。
潜時符号化と疎性の間のギャップを埋めて、ソフトゲーティング機構に非直線的にマッピングされたコンパクト潜時表現を得る。
このような潜在表現のデータセットを得た後、ニューラル圧縮を用いてモーダリティ非依存空間におけるレート/歪みトレードオフを直接最適化する。
論文 参考訳(メタデータ) (2023-01-23T15:22:42Z) - Correcting Model Bias with Sparse Implicit Processes [0.9187159782788579]
SIP(Sparse Implicit Processes)は,データ生成機構がモデルによって入力されるものと強く異なる場合,モデルバイアスを補正できることを示す。
合成データセットを用いて、SIPは、初期推定モデルの正確な予測よりもデータをよりよく反映する予測分布を提供することができることを示す。
論文 参考訳(メタデータ) (2022-07-21T18:00:01Z) - Dynamically-Scaled Deep Canonical Correlation Analysis [77.34726150561087]
カノニカル相関解析 (CCA) は, 2つのビューの特徴抽出手法である。
本稿では,入力依存の正準相関モデルをトレーニングするための新しい動的スケーリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-23T12:52:49Z) - Harmonization with Flow-based Causal Inference [12.739380441313022]
本稿では, 医療データを調和させる構造因果モデル (SCM) に対して, 反実的推論を行う正規化フローに基づく手法を提案する。
我々は,この手法が最先端のアルゴリズムよりもドメイン間一般化に寄与することを示すために,複数の,大規模な実世界の医療データセットを評価した。
論文 参考訳(メタデータ) (2021-06-12T19:57:35Z) - Multi-Sample Online Learning for Spiking Neural Networks based on
Generalized Expectation Maximization [42.125394498649015]
スパイキングニューラルネットワーク(SNN)は、バイナリニューラルダイナミックアクティベーションを通じて処理することで、生物学的脳の効率の一部をキャプチャする。
本稿では, シナプス重みを共有しながら, 独立したスパイキング信号をサンプリングする複数のコンパートメントを活用することを提案する。
鍵となる考え方は、これらの信号を使ってログライクなトレーニング基準のより正確な統計的推定と勾配を求めることである。
論文 参考訳(メタデータ) (2021-02-05T16:39:42Z) - Learning Curves for Drug Response Prediction in Cancer Cell Lines [29.107984441845673]
2つのニューラルネットワーク(NN)と2つの勾配強化決定木(GBDT)モデルの4つの薬物スクリーニングデータセットで訓練されたデータスケーリング特性を評価する。
学習曲線は、パワーローモデルに正確に適合し、これらの予測器のデータスケーリング挙動を評価するためのフレームワークを提供する。
論文 参考訳(メタデータ) (2020-11-25T01:08:05Z) - Deep Representational Similarity Learning for analyzing neural
signatures in task-based fMRI dataset [81.02949933048332]
本稿では、表現類似度分析(RSA)の深部拡張であるDRSL(Deep Representational similarity Learning)を開発する。
DRSLは、多数の被験者を持つfMRIデータセットにおける様々な認知タスク間の類似性を分析するのに適している。
論文 参考訳(メタデータ) (2020-09-28T18:30:14Z) - Ensemble Transfer Learning for the Prediction of Anti-Cancer Drug
Response [49.86828302591469]
本稿では,抗がん剤感受性の予測にトランスファーラーニングを適用した。
我々は、ソースデータセット上で予測モデルをトレーニングし、ターゲットデータセット上でそれを洗練する古典的な転送学習フレームワークを適用した。
アンサンブル転送学習パイプラインは、LightGBMと異なるアーキテクチャを持つ2つのディープニューラルネットワーク(DNN)モデルを使用して実装されている。
論文 参考訳(メタデータ) (2020-05-13T20:29:48Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。