論文の概要: MindCross: Fast New Subject Adaptation with Limited Data for Cross-subject Video Reconstruction from Brain Signals
- arxiv url: http://arxiv.org/abs/2511.14196v1
- Date: Tue, 18 Nov 2025 07:04:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.981292
- Title: MindCross: Fast New Subject Adaptation with Limited Data for Cross-subject Video Reconstruction from Brain Signals
- Title(参考訳): MindCross:脳信号からのクロスオブジェクトビデオ再構成のための限定データによる高速な新しい主題適応
- Authors: Xuan-Hao Liu, Yan-Kai Liu, Tianyi Zhou, Bao-Liang Lu, Wei-Long Zheng,
- Abstract要約: 既存の脳デコーディングフレームワークは、主に主題に依存したパラダイムに基づいて構築されており、各主題に対して大量の脳データを必要とする。
高速でデータ効率の高い新しい主題適応を実現するために,新しいクロスオブジェクトフレームワークであるMindCrossを提案する。
MindCrossのN特定エンコーダと1つの共有エンコーダは、それぞれ主観的固有情報と主観的不変情報を取り出すように設計されている。
- 参考スコア(独自算出の注目度): 35.61786517556023
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Reconstructing video from brain signals is an important brain decoding task. Existing brain decoding frameworks are primarily built on a subject-dependent paradigm, which requires large amounts of brain data for each subject. However, the expensive cost of collecting brain-video data causes severe data scarcity. Although some cross-subject methods being introduced, they often overfocus with subject-invariant information while neglecting subject-specific information, resulting in slow fine-tune-based adaptation strategy. To achieve fast and data-efficient new subject adaptation, we propose MindCross, a novel cross-subject framework. MindCross's N specific encoders and one shared encoder are designed to extract subject-specific and subject-invariant information, respectively. Additionally, a Top-K collaboration module is adopted to enhance new subject decoding with the knowledge learned from previous subjects' encoders. Extensive experiments on fMRI/EEG-to-video benchmarks demonstrate MindCross's efficacy and efficiency of cross-subject decoding and new subject adaptation using only one model.
- Abstract(参考訳): 脳信号からの映像の再構成は脳の復号化の重要な課題である。
既存の脳デコーディングフレームワークは、主に主題に依存したパラダイムに基づいて構築されており、各主題に対して大量の脳データを必要とする。
しかし、脳ビデオデータ収集の高価なコストは、データ不足を引き起こす。
いくつかのクロスオブジェクト手法が導入されたが、被験者固有の情報を無視しながら主題不変情報に過度に焦点を合わせ、微調整に基づく適応戦略が遅くなる。
高速でデータ効率の高い新しい主題適応を実現するために,新しいクロスオブジェクトフレームワークであるMindCrossを提案する。
MindCrossのN特定エンコーダと1つの共有エンコーダは、それぞれ主観的固有情報と主観的不変情報を取り出すように設計されている。
さらに、Top-Kコラボレーションモジュールは、前の被験者のエンコーダから学んだ知識を用いて、新しい主題のデコードを強化するために採用されている。
fMRI/EEG-to-videoベンチマークの大規模な実験は、MindCrossのクロスオブジェクトデコーディングの有効性と効率を実証し、新しい対象適応を1つのモデルで示した。
関連論文リスト
- DecoFuse: Decomposing and Fusing the "What", "Where", and "How" for Brain-Inspired fMRI-to-Video Decoding [82.91021399231184]
既存のfMRI-to-video法は、しばしば空間情報や動き情報を見下ろしながら意味的内容に焦点を当てる。
そこで我々は,fMRI信号から映像をデコードするための,脳にインスパイアされた新しいフレームワークであるDecoFuseを提案する。
まず、ビデオはセマンティック、空間、動きの3つのコンポーネントに分解し、次に各コンポーネントを別々にデコードしてから、ビデオを再構成する。
論文 参考訳(メタデータ) (2025-04-01T05:28:37Z) - MindAligner: Explicit Brain Functional Alignment for Cross-Subject Visual Decoding from Limited fMRI Data [64.92867794764247]
MindAlignerは、限られたfMRIデータからのクロスオブジェクト脳デコーディングのためのフレームワークである。
脳伝達マトリックス(BTM)は、任意の新しい被験者の脳信号を既知の被験者の1人に投射する。
脳機能アライメントモジュールは、異なる視覚刺激下で軟質なクロスオブジェクト脳アライメントを実行するために提案されている。
論文 参考訳(メタデータ) (2025-02-07T16:01:59Z) - UniBrain: A Unified Model for Cross-Subject Brain Decoding [22.49964298783508]
被験者固有のパラメータを必要としない統一脳復号モデルUniBrainを提案する。
提案手法は, 可変fMRI信号長を扱うグループベース抽出器, クロスオブジェクトの共通点を捕捉する相互支援組込み器, 被写体不変特徴を抽出するバイレベル特徴アライメント方式を含む。
我々は、UniBrainを脳復号ベンチマークで検証し、パラメータが極端に少ない現在の最先端の主題特化モデルに匹敵する性能を実現した。
論文 参考訳(メタデータ) (2024-12-27T07:03:47Z) - Across-subject ensemble-learning alleviates the need for large samples for fMRI decoding [37.41192511246204]
オブジェクト内デコーディングはオブジェクト間の対応の問題を回避するが、正確な予測を行うにはサンプルサイズが大きい。
本稿では、他の被験者のデータに基づいて訓練された分類器を組み合わせて、新しい被験者の認知状態を復号化するためのアンサンブルアプローチについて検討する。
特にオブジェクトごとのデータに制限のあるデータセットでは,従来の復号法よりも最大20%の精度で性能が向上することがわかった。
論文 参考訳(メタデータ) (2024-07-09T08:22:44Z) - MindBridge: A Cross-Subject Brain Decoding Framework [60.58552697067837]
脳の復号化は、獲得した脳信号から刺激を再構築することを目的としている。
現在、脳の復号化はモデルごとのオブジェクトごとのパラダイムに限られている。
我々は,1つのモデルのみを用いることで,オブジェクト間脳デコーディングを実現するMindBridgeを提案する。
論文 参考訳(メタデータ) (2024-04-11T15:46:42Z) - Rethinking Cross-Subject Data Splitting for Brain-to-Text Decoding [35.302150900816635]
我々は、fMRIとEEG信号をテキストに復号するために、データ漏洩のない正しいクロスオブジェクトデータ分割基準を開発する。
いくつかのSOTA脳からテキストへの復号モデルは、さらなる研究のために提案された基準で正しく評価される。
論文 参考訳(メタデータ) (2023-12-18T07:22:39Z) - Aligning brain functions boosts the decoding of visual semantics in
novel subjects [3.226564454654026]
脳の反応をビデオや静止画像に合わせることで脳の復号化を促進することを提案する。
提案手法はオブジェクト外デコード性能を最大75%向上させる。
また、テスト対象者に対して100分未満のデータが得られる場合、古典的な単一オブジェクトアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-12-11T15:55:20Z) - Deep Recurrent Encoder: A scalable end-to-end network to model brain
signals [122.1055193683784]
複数の被験者の脳応答を一度に予測するために訓練されたエンドツーエンドのディープラーニングアーキテクチャを提案する。
1時間の読解作業で得られた大脳磁図(meg)記録を用いて,このアプローチを検証した。
論文 参考訳(メタデータ) (2021-03-03T11:39:17Z) - Beyond Single Stage Encoder-Decoder Networks: Deep Decoders for Semantic
Image Segmentation [56.44853893149365]
セマンティックセグメンテーションのための単一エンコーダ-デコーダ手法は、セマンティックセグメンテーションの品質とレイヤー数あたりの効率の観点からピークに達している。
そこで本研究では,より多くの情報コンテンツを取得するために,浅層ネットワークの集合を用いたデコーダに基づく新しいアーキテクチャを提案する。
アーキテクチャをさらに改善するために,ネットワークの注目度を高めるために,クラスの再バランスを目的とした重み関数を導入する。
論文 参考訳(メタデータ) (2020-07-19T18:44:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。