論文の概要: A practical model-based segmentation approach for improved activation
detection in single-subject functional Magnetic Resonance Imaging studies
- arxiv url: http://arxiv.org/abs/2102.03639v3
- Date: Tue, 4 Apr 2023 13:28:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 19:58:56.784311
- Title: A practical model-based segmentation approach for improved activation
detection in single-subject functional Magnetic Resonance Imaging studies
- Title(参考訳): 単目的機能型磁気共鳴イメージング研究におけるアクティベーション検出のための実用的モデルベースセグメンテーション手法
- Authors: Wei-Chen Chen and Ranjan Maitra
- Abstract要約: fMRI(Function Magnetic Resonance Imaging)は脳の活性化を刺激に応答してマッピングする。
活性検出は、実際には非常に少数のボクセルが本当に活性化されているという事実によって導かれる。
RパッケージMixfMRIに実装した,計算可能で方法論的な音響モデルに基づく手法を開発した。
- 参考スコア(独自算出の注目度): 8.680676599607125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Functional Magnetic Resonance Imaging (fMRI) maps cerebral activation in
response to stimuli but this activation is often difficult to detect,
especially in low-signal contexts and single-subject studies. Accurate
activation detection can be guided by the fact that very few voxels are, in
reality, truly activated and that these voxels are spatially localized, but it
is challenging to incorporate both these facts. We address these twin
challenges to single-subject and low-signal fMRI by developing a
computationally feasible and methodologically sound model-based approach,
implemented in the R package MixfMRI, that bounds the a priori expected
proportion of activated voxels while also incorporating spatial context. An
added benefit of our methodology is the ability to distinguish voxels and
regions having different intensities of activation. Our suggested approach is
evaluated in realistic two- and three-dimensional simulation experiments as
well as on multiple real-world datasets. Finally, the value of our suggested
approach in low-signal and single-subject fMRI studies is illustrated on a
sports imagination experiment that is often used to detect awareness and
improve treatment in patients in persistent vegetative state (PVS). Our ability
to reliably distinguish activation in this experiment potentially opens the
door to the adoption of fMRI as a clinical tool for the improved treatment and
therapy of PVS survivors and other patients.
- Abstract(参考訳): 機能的磁気共鳴イメージング(fMRI)は、刺激に反応して脳の活性化をマッピングするが、この活性化は、特に低信号の文脈や単一物体の研究において検出することがしばしば困難である。
正確なアクティベーション検出は、実際に非常に少数のボクセルが実際に活性化され、これらのボクセルが空間的に局所化されているという事実によって導かれるが、これら両方の事実を組み込むことは困難である。
RパッケージMixfMRIに実装された,計算可能で方法論的に健全なモデルに基づくアプローチを開発することで,単一オブジェクトと低信号fMRIに対するこれらの課題に対処する。
我々の手法の利点は、活性化の強度が異なるボクセルや領域を識別できることである。
提案手法は現実的な2次元および3次元シミュレーション実験および複数の実世界のデータセットで評価される。
最後に,低信号・単目的fMRI研究における提案手法の意義を,持続的栄養状態 (PVS) の患者に対する意識の検出と治療改善によく用いられるスポーツ想像実験で明らかにした。
この実験で活性化を確実に区別する能力は、PVS生存者や他の患者の治療と治療を改善するための臨床ツールとしてのfMRI導入への扉を開く可能性がある。
関連論文リスト
- Interpretable Spatio-Temporal Embedding for Brain Structural-Effective Network with Ordinary Differential Equation [56.34634121544929]
本研究では,まず動的因果モデルを用いて脳効果ネットワークを構築する。
次に、STE-ODE(Spatio-Temporal Embedding ODE)と呼ばれる解釈可能なグラフ学習フレームワークを導入する。
このフレームワークは、構造的および効果的なネットワーク間の動的相互作用を捉えることを目的とした、特異的に設計されたノード埋め込み層を含んでいる。
論文 参考訳(メタデータ) (2024-05-21T20:37:07Z) - Transferring Ultrahigh-Field Representations for Intensity-Guided Brain
Segmentation of Low-Field Magnetic Resonance Imaging [51.92395928517429]
7T MRIの使用は、低磁場MRIと比較して高コストでアクセシビリティが低いため制限されている。
本研究では,入力されたLF磁気共鳴特徴表現と,脳画像分割タスクのための7T様特徴表現とを融合したディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-13T12:21:06Z) - A Compact Implicit Neural Representation for Efficient Storage of
Massive 4D Functional Magnetic Resonance Imaging [14.493622422645053]
fMRI圧縮は、複雑な時間的ダイナミクス、低信号-雑音比、複雑な基礎的冗長性のために、ユニークな課題を生んでいる。
Inlicit Neural Representation (INR)に基づくfMRIデータに適した新しい圧縮パラダイムについて報告する。
論文 参考訳(メタデータ) (2023-11-30T05:54:37Z) - fMRI-PTE: A Large-scale fMRI Pretrained Transformer Encoder for
Multi-Subject Brain Activity Decoding [54.17776744076334]
本稿では,fMRI事前学習のための革新的オートエンコーダであるfMRI-PTEを提案する。
我々のアプローチでは、fMRI信号を統合された2次元表現に変換し、次元の整合性を確保し、脳の活動パターンを保存する。
コントリビューションには、fMRI-PTEの導入、革新的なデータ変換、効率的なトレーニング、新しい学習戦略、そして我々のアプローチの普遍的な適用性が含まれる。
論文 参考訳(メタデータ) (2023-11-01T07:24:22Z) - fMRI from EEG is only Deep Learning away: the use of interpretable DL to
unravel EEG-fMRI relationships [68.8204255655161]
多チャンネル脳波データからいくつかの皮質下領域の活性を回復するための解釈可能な領域基底解を提案する。
我々は,皮質下核の血行動態信号の頭皮脳波予測の空間的・時間的パターンを復元する。
論文 参考訳(メタデータ) (2022-10-23T15:11:37Z) - Spatio-temporally separable non-linear latent factor learning: an
application to somatomotor cortex fMRI data [0.0]
潜在因子の脳全体の発見が可能なfMRIデータのモデルについて検討する。
空間重み付けを効率化するための新しい手法は、データの高次元性とノイズの存在に対処するために重要である。
本手法は,複数のモーターサブタスクを用いたデータを用いて,モデルが各サブタスクに対応する非絡み合った潜在因子を捕捉するかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-26T21:30:22Z) - Brain Cancer Survival Prediction on Treatment-na ive MRI using Deep
Anchor Attention Learning with Vision Transformer [4.630654643366308]
画像ベース脳腫瘍予測モデルによるMRIによるX線学的表現型の定量化
腫瘍内表現型不均一性の証拠にもかかわらず、MRIスキャンにおける異なるスライス間の空間的多様性は、そのような方法では比較的研究されていない。
本稿では,脳腫瘍患者の生存リスクを予測するために,ビジョントランスフォーマを用いたディープアンカーアテンションアグリゲーション戦略を提案する。
論文 参考訳(メタデータ) (2022-02-03T21:33:08Z) - Real-time landmark detection for precise endoscopic submucosal
dissection via shape-aware relation network [51.44506007844284]
内視鏡下粘膜下郭清術における高精度かつリアルタイムなランドマーク検出のための形状認識型関係ネットワークを提案する。
まず,ランドマーク間の空間的関係に関する先行知識を直感的に表現する関係キーポイント・ヒートマップを自動生成するアルゴリズムを考案する。
次に、事前知識を学習プロセスに段階的に組み込むために、2つの補完的な正規化手法を開発する。
論文 参考訳(メタデータ) (2021-11-08T07:57:30Z) - Detecting Parkinsonian Tremor from IMU Data Collected In-The-Wild using
Deep Multiple-Instance Learning [59.74684475991192]
パーキンソン病(英: Parkinson's Disease、PD)は、60歳以上の人口の約1%に影響を与える徐々に進化する神経学的疾患である。
PD症状には、震動、剛性、ブレイキネジアがある。
本稿では,スマートフォン端末から受信したIMU信号に基づいて,PDに関連するトレモラスなエピソードを自動的に識別する手法を提案する。
論文 参考訳(メタデータ) (2020-05-06T09:02:30Z) - Mapping individual differences in cortical architecture using multi-view
representation learning [0.0]
本稿では,タスクfMRIと安静状態fMRIで計測されたアクティベーションと接続性に基づく情報を組み合わせて,新しい機械学習手法を提案する。
マルチビューディープ・オートエンコーダは、2つのfMRIモダリティを、患者を特徴づけるスカラースコアを推測するために予測モデルが訓練されたジョイント表現空間に融合させるように設計されている。
論文 参考訳(メタデータ) (2020-04-01T09:01:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。