論文の概要: Neuroverse3D: Developing In-Context Learning Universal Model for Neuroimaging in 3D
- arxiv url: http://arxiv.org/abs/2503.02410v2
- Date: Fri, 04 Jul 2025 10:04:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 17:51:39.694872
- Title: Neuroverse3D: Developing In-Context Learning Universal Model for Neuroimaging in 3D
- Title(参考訳): ニューロバース3D:3次元におけるニューロイメージングのためのインテクスト学習ユニバーサルモデルの開発
- Authors: Jiesi Hu, Chenfei Ye, Yanwu Yang, Xutao Guo, Yang Shang, Pengcheng Shi, Hanyang Peng, Ting Ma,
- Abstract要約: 我々は,複数のニューロイメージングタスクを3Dで実行可能なICLモデルであるNeuroverse3Dを紹介する。
Neuroverse3Dは、適応並列シーケンスコンテキスト処理によって3D入力に関連する大きなメモリ消費を克服する。
本研究は、19のニューロイメージングデータセットから43,674個のマルチモーダルスキャンを取り入れ、ホールドアウトテストセットを用いて14のタスクでニューロバース3Dを評価する。
- 参考スコア(独自算出の注目度): 6.777213578517701
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In-context learning (ICL), a type of universal model, demonstrates exceptional generalization across a wide range of tasks without retraining by leveraging task-specific guidance from context, making it particularly effective for the intricate demands of neuroimaging. However, current ICL models, limited to 2D inputs and thus exhibiting suboptimal performance, struggle to extend to 3D inputs due to the high memory demands of ICL. In this regard, we introduce Neuroverse3D, an ICL model capable of performing multiple neuroimaging tasks in 3D (e.g., segmentation, denoising, inpainting). Neuroverse3D overcomes the large memory consumption associated with 3D inputs through adaptive parallel-sequential context processing and a U-shaped fusion strategy, allowing it to handle an unlimited number of context images. Additionally, we propose an optimized loss function to balance multi-task training and enhance focus on anatomical boundaries. Our study incorporates 43,674 3D multi-modal scans from 19 neuroimaging datasets and evaluates Neuroverse3D on 14 diverse tasks using held-out test sets. The results demonstrate that Neuroverse3D significantly outperforms existing ICL models and closely matches task-specific models, enabling flexible adaptation to medical center variations without retraining. The code and model weights are publicly available at https://github.com/jiesihu/Neuroverse3D.
- Abstract(参考訳): In-context Learning (ICL)は、コンテキストからタスク固有のガイダンスを活用することによって、タスクをトレーニングすることなく、幅広いタスクにまたがる例外的な一般化を実証し、神経イメージングの複雑な要求に特に有効である。
しかし、現在のICLモデルは2次元の入力に制限され、従って最適性能を示すため、ICLの高メモリ要求のために3次元の入力に拡張するのは難しい。
本稿では、3Dで複数のニューロイメージングタスクを実行できるICLモデルであるNeuroverse3Dを紹介する。
Neuroverse3Dは、適応並列シーケンスコンテキスト処理とU字型の融合戦略により、3D入力に関連する大きなメモリ消費を克服し、無制限のコンテキストイメージを処理できる。
さらに、マルチタスクトレーニングのバランスを保ち、解剖学的境界に焦点を合わせるために最適化された損失関数を提案する。
本研究は、19のニューロイメージングデータセットから43,674個のマルチモーダルスキャンを取り入れ、ホールドアウトテストセットを用いて14のタスクでニューロバース3Dを評価する。
以上の結果から,Neuroverse3Dは既存のICLモデルよりも優れており,タスク固有のモデルと密に一致していることが明らかとなった。
コードとモデルの重み付けはhttps://github.com/jiesihu/Neuroverse3D.comで公開されている。
関連論文リスト
- Implicit-Zoo: A Large-Scale Dataset of Neural Implicit Functions for 2D Images and 3D Scenes [65.22070581594426]
Implicit-Zoo"は、この分野の研究と開発を容易にするために、数千のGPUトレーニング日を必要とする大規模なデータセットである。
1)トランスモデルのトークン位置を学習すること、(2)NeRFモデルに関して直接3Dカメラが2D画像のポーズを取ること、である。
これにより、画像分類、セマンティックセグメンテーション、および3次元ポーズ回帰の3つのタスクすべてのパフォーマンスが向上し、研究のための新たな道が開けることになる。
論文 参考訳(メタデータ) (2024-06-25T10:20:44Z) - Self-Supervised Pretext Tasks for Alzheimer's Disease Classification using 3D Convolutional Neural Networks on Large-Scale Synthetic Neuroimaging Dataset [11.173478552040441]
アルツハイマー病(Alzheimer's Disease, AD)は、脳の局所的および広範な神経変性を誘導する疾患である。
本研究では、下流ADとCN分類のための特徴抽出器を訓練するための教師なし手法をいくつか評価した。
論文 参考訳(メタデータ) (2024-06-20T11:26:32Z) - Brain3D: Generating 3D Objects from fMRI [76.41771117405973]
被験者のfMRIデータを入力として利用する新しい3Dオブジェクト表現学習手法であるBrain3Dを設計する。
我々は,人間の視覚系の各領域の異なる機能的特徴を,我々のモデルが捉えていることを示す。
予備評価は、Brain3Dがシミュレーションシナリオで障害した脳領域を正常に識別できることを示唆している。
論文 参考訳(メタデータ) (2024-05-24T06:06:11Z) - Boosting 3D Neuron Segmentation with 2D Vision Transformer Pre-trained on Natural Images [10.790999324557179]
本研究では,大規模自然画像に事前学習した2次元視覚変換器モデルを活用する新しい訓練パラダイムを提案する。
本手法は,3次元ニューロンセグメンテーション能力を向上させるために,豊富な自然と希少なニューロン画像領域間の知識共有接続を構築する。
一般的なベンチマークであるBigNeuronで評価したところ、スクラッチからトレーニングしたモデルよりもニューロンのセグメンテーション性能が8.71%向上した。
論文 参考訳(メタデータ) (2024-05-04T14:57:28Z) - MinD-3D: Reconstruct High-quality 3D objects in Human Brain [50.534007259536715]
Recon3DMindは、fMRI(Functional Magnetic Resonance Imaging)信号から3次元視覚を再構成するための革新的なタスクである。
このデータセットは14人の参加者のデータを含み、3Dオブジェクトの360度ビデオが特徴である。
我々は,脳の3次元視覚情報をfMRI信号から復号化するための,新規で効果的な3段階フレームワークMinD-3Dを提案する。
論文 参考訳(メタデータ) (2023-12-12T18:21:36Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal
Pre-training Paradigm [114.47216525866435]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - Deep Generative Models on 3D Representations: A Survey [81.73385191402419]
生成モデルは、新しいインスタンスを生成することによって観測データの分布を学習することを目的としている。
最近、研究者は焦点を2Dから3Dにシフトし始めた。
3Dデータの表現は、非常に大きな課題をもたらします。
論文 参考訳(メタデータ) (2022-10-27T17:59:50Z) - Advancing 3D Medical Image Analysis with Variable Dimension Transform
based Supervised 3D Pre-training [45.90045513731704]
本稿では,革新的でシンプルな3Dネットワーク事前学習フレームワークを再考する。
再設計された3Dネットワークアーキテクチャにより、データ不足の問題に対処するために、修正された自然画像が使用される。
4つのベンチマークデータセットに関する総合的な実験により、提案した事前学習モデルが収束を効果的に加速できることが示されている。
論文 参考訳(メタデータ) (2022-01-05T03:11:21Z) - CAN3D: Fast 3D Medical Image Segmentation via Compact Context
Aggregation [6.188937569449575]
本稿では,メモリフットプリントの浅いコンパクト畳み込みニューラルネットワークを提案する。
提案するネットワークは,パッチを必要とせず,大規模な3次元入力ボリュームを直接処理することでデータの整合性を維持することができる。
論文 参考訳(メタデータ) (2021-09-12T06:27:59Z) - Medical Transformer: Universal Brain Encoder for 3D MRI Analysis [1.6287500717172143]
既存の3Dベースの手法は、トレーニング済みのモデルを下流のタスクに転送している。
彼らは3D医療イメージングのためのモデルを訓練するために大量のパラメータを要求します。
本稿では,2次元画像スライス形式で3次元容積画像を効果的にモデル化する,メディカルトランスフォーマーと呼ばれる新しい伝達学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-28T08:34:21Z) - Neural Descent for Visual 3D Human Pose and Shape [67.01050349629053]
入力RGB画像から3次元のポーズと形状を復元するディープニューラルネットワーク手法を提案する。
我々は最近導入された表現力のあるボディ統計モデルGHUMに頼っている。
我々の方法論の中心は、HUmanNeural Descent (HUND)と呼ばれるアプローチの学習と最適化である。
論文 参考訳(メタデータ) (2020-08-16T13:38:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。