論文の概要: SLIM-Brain: A Data- and Training-Efficient Foundation Model for fMRI Data Analysis
- arxiv url: http://arxiv.org/abs/2512.21881v1
- Date: Fri, 26 Dec 2025 06:10:31 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 12:02:10.801316
- Title: SLIM-Brain: A Data- and Training-Efficient Foundation Model for fMRI Data Analysis
- Title(参考訳): SLIM-Brain:fMRIデータ解析のためのデータ・トレーニング効率の良い基礎モデル
- Authors: Mo Wang, Junfeng Xia, Wenhao Ye, Enyu Liu, Kaining Peng, Jianfeng Feng, Quanying Liu, Hongkai Wen,
- Abstract要約: 基礎モデルはfMRI分析の強力なパラダイムとして浮上している。
現在のアプローチでは、データとトレーニング効率の2つのボトルネックに直面しています。
SLIM-Brainは、データとトレーニング効率の両方を同時に改善する新しいアトラスフリー基盤モデルである。
- 参考スコア(独自算出の注目度): 16.923310176195766
- License:
- Abstract: Foundation models are emerging as a powerful paradigm for fMRI analysis, but current approaches face a dual bottleneck of data- and training-efficiency. Atlas-based methods aggregate voxel signals into fixed regions of interest, reducing data dimensionality but discarding fine-grained spatial details, and requiring extremely large cohorts to train effectively as general-purpose foundation models. Atlas-free methods, on the other hand, operate directly on voxel-level information - preserving spatial fidelity but are prohibitively memory- and compute-intensive, making large-scale pre-training infeasible. We introduce SLIM-Brain (Sample-efficient, Low-memory fMRI Foundation Model for Human Brain), a new atlas-free foundation model that simultaneously improves both data- and training-efficiency. SLIM-Brain adopts a two-stage adaptive design: (i) a lightweight temporal extractor captures global context across full sequences and ranks data windows by saliency, and (ii) a 4D hierarchical encoder (Hiera-JEPA) learns fine-grained voxel-level representations only from the top-$k$ selected windows, while deleting about 70% masked patches. Extensive experiments across seven public benchmarks show that SLIM-Brain establishes new state-of-the-art performance on diverse tasks, while requiring only 4 thousand pre-training sessions and approximately 30% of GPU memory comparing to traditional voxel-level methods.
- Abstract(参考訳): 基礎モデルはfMRI分析の強力なパラダイムとして浮上しているが、現在のアプローチではデータとトレーニング効率の2つのボトルネックに直面している。
アトラスベースの手法は、ボクセル信号を一定の関心領域に集約し、データの次元を減らし、詳細な空間的詳細を破棄し、汎用基盤モデルとして効果的に訓練するために非常に大きなコホートを必要とする。
一方、アトラスフリーな手法は、空間的忠実さを保ちながら、メモリと計算集約性は禁忌であり、大規模な事前学習が不可能である、ボクセルレベルの情報を直接操作する。
SLIM-Brain (Sample- efficient, Low-Memory fMRI Foundation Model for Human Brain) は、データとトレーニング効率を同時に改善する新しいアトラスフリー基盤モデルである。
SLIM-Brainは2段階適応設計を採用する。
一 軽量時空間抽出装置は、全シーケンスをまたいでグローバルな文脈を捉え、データウインドウを正当性でランク付けし、
(ii) 4D階層エンコーダ (Hiera-JEPA) は、トップ$k$選択ウィンドウからのみ、きめ細かいボクセルレベルの表現を学習すると同時に、約70%のマスク付きパッチを削除している。
7つの公開ベンチマークによる大規模な実験によると、SLIM-Brainは、従来のボクセルレベルの手法と比較して、トレーニング済みセッションがわずか4万、GPUメモリの約30%しか必要とせず、さまざまなタスクに対して新たな最先端のパフォーマンスを確立する。
関連論文リスト
- DCA: Graph-Guided Deep Embedding Clustering for Brain Atlases [11.027192223822832]
Deep Cluster Atlas(ディープクラスタアトラス、英: Deep Cluster Atlas、DCA)は、グラフ誘導のディープ埋め込みクラスタリングフレームワークである。
DCAは、事前訓練されたオートエンコーダと空間的に規則化されたディープクラスタリングを組み合わせることで、機能的に一貫性のある空間的に連続した領域を生成する。
複数のデータセットとスケールにわたって、DCAは最先端のアトラスを上回り、機能的均一性を98.8%改善し、シルエット係数を29%改善した。
論文 参考訳(メタデータ) (2025-09-01T12:33:32Z) - SPaRFT: Self-Paced Reinforcement Fine-Tuning for Large Language Models [51.74498855100541]
大規模言語モデル(LLM)は、強化学習(RL)による微調整時に強い推論能力を示す。
トレーニング対象のモデルの性能に基づいて,効率的な学習を可能にする自己評価学習フレームワークである textbfSPaRFT を提案する。
論文 参考訳(メタデータ) (2025-08-07T03:50:48Z) - LifelongPR: Lifelong point cloud place recognition based on sample replay and prompt learning [15.464706470200337]
本稿では,PCPRのための新しい連続学習フレームワークであるLifelongPRを提案する。
LifelongPRは、シーケンシャルポイントクラウドデータから知識を効果的に抽出し、融合する。
提案手法はmIR@1の6.50%,mR@1の7.96%,Fの8.95%削減を実現する。
論文 参考訳(メタデータ) (2025-07-14T08:13:33Z) - Private Training & Data Generation by Clustering Embeddings [74.00687214400021]
差分プライバシー(DP)は、個々のデータを保護するための堅牢なフレームワークを提供する。
本稿では,DP合成画像埋め込み生成のための新しい原理的手法を提案する。
経験的に、合成的に生成された埋め込みに基づいて訓練された単純な2層ニューラルネットワークは、最先端(SOTA)分類の精度を達成する。
論文 参考訳(メタデータ) (2025-06-20T00:17:14Z) - Flexiffusion: Training-Free Segment-Wise Neural Architecture Search for Efficient Diffusion Models [50.260693393896716]
拡散モデル(DM)は高忠実度画像を生成できる強力な生成モデルであるが、高い計算コストで制約される。
我々は、事前訓練されたパラメータを変更することなく、生成スケジュールとモデルアーキテクチャを協調的に最適化する、トレーニング不要なNASフレームワークFlexiffusionを提案する。
我々の研究は、品質を犠牲にすることなく高速DMを検索するための資源効率の良いパラダイムを開拓した。
論文 参考訳(メタデータ) (2025-06-03T06:02:50Z) - SHA256 at SemEval-2025 Task 4: Selective Amnesia -- Constrained Unlearning for Large Language Models via Knowledge Isolation [12.838593066237452]
大規模言語モデル(LLM)は、トレーニング中に頻繁にセンシティブな情報を記憶し、公開可能なモデルをデプロイする際にリスクを生じさせる。
本稿では, 因果媒介分析と層固有の最適化を組み合わせた, 対象未学習におけるSemEval-2025タスク4の解を提案する。
論文 参考訳(メタデータ) (2025-04-17T15:05:40Z) - TokenUnify: Scaling Up Autoregressive Pretraining for Neuron Segmentation [65.65530016765615]
本稿では,3つの相補的な学習目標を通じて,大規模依存関係をキャプチャする階層型予測コーディングフレームワークを提案する。
TokenUnifyは、ランダムトークン予測、次のトークン予測、およびすべてのトークン予測を統合して、包括的な表現空間を作成する。
また,120億個の注釈付きボクセルを付加した大規模EMデータセットを導入し,空間連続性を持つ理想的な長周期視覚データを提供する。
論文 参考訳(メタデータ) (2024-05-27T05:45:51Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。