論文の概要: Group-level Brain Decoding with Deep Learning
- arxiv url: http://arxiv.org/abs/2205.14102v3
- Date: Fri, 19 Jan 2024 15:30:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 19:53:53.555952
- Title: Group-level Brain Decoding with Deep Learning
- Title(参考訳): ディープラーニングを用いたグループレベルの脳デコード
- Authors: Richard Csaky, Mats Van Es, Oiwi Parker Jones, Mark Woolrich
- Abstract要約: 自然言語処理における単語埋め込みに類似した主語埋め込みを用いて,デコードモデルの一部としてオブジェクト間の可変性の構造を学習し,活用する手法を提案する。
深層学習と主観的埋め込みの組み合わせは、主観的およびグループレベルの復号化モデルのパフォーマンスギャップを埋めるのに不可欠であることを示す。
- 参考スコア(独自算出の注目度): 3.850666668546735
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Decoding brain imaging data are gaining popularity, with applications in
brain-computer interfaces and the study of neural representations. Decoding is
typicallysubject-specific and does not generalise well over subjects, due to
high amounts ofbetween subject variability. Techniques that overcome this will
not only providericher neuroscientific insights but also make it possible for
group-level models to out-perform subject-specific models. Here, we propose a
method that uses subjectembedding, analogous to word embedding in natural
language processing, to learnand exploit the structure in between-subject
variability as part of a decoding model,our adaptation of the WaveNet
architecture for classification. We apply this to mag-netoencephalography data,
where 15 subjects viewed 118 different images, with30 examples per image; to
classify images using the entire 1 s window followingimage presentation. We
show that the combination of deep learning and subjectembedding is crucial to
closing the performance gap between subject- and group-level decoding models.
Importantly, group models outperform subject models onlow-accuracy subjects
(although slightly impair high-accuracy subjects) and can behelpful for
initialising subject models. While we have not generally found
group-levelmodels to perform better than subject-level models, the performance
of groupmodelling is expected to be even higher with bigger datasets. In order
to providephysiological interpretation at the group level, we make use of
permutation featureimportance. This provides insights into the spatiotemporal
and spectral informationencoded in the models. All code is available on GitHub
(https://github.com/ricsinaruto/MEG-group-decode).
- Abstract(参考訳): 脳画像データのデコードが普及し、脳-コンピュータインターフェースや神経表現の研究に応用されている。
復号は典型的にはサブジェクトに特有であり、主題の変動性が高いため、サブジェクトよりも一般化していない。
これを克服するテクニックは、より豊かな神経科学的な洞察を提供するだけでなく、グループレベルのモデルが主題固有のモデルを上回ることができる。
本稿では、自然言語処理における単語埋め込みに類似した主語埋め込みを用いて、デコードモデルの一部としてオブジェクト間の可変性の構造を学習・活用し、ウェーブネットアーキテクチャの分類に適応する手法を提案する。
本研究では,15名の被験者が118の異なる画像を1画像30例で閲覧し,1 s のウィンドウ後続画像表示全体を用いて画像の分類を行うmag-netoencephalographyデータに適用する。
深層学習と主観的埋め込みの組み合わせは、主観的およびグループレベルの復号化モデルのパフォーマンスギャップを埋めるのに不可欠であることを示す。
重要なことに、グループモデルは、低精度の被験者の主題モデルよりも優れており、主題モデルの初期化に役立ちます。
グループレベルのモデルの方が主観的モデルよりも優れた性能を示すグループレベルのモデルは発見されていないが、グループレベルのモデルの性能はより大きなデータセットでさらに高くなることが期待されている。
群レベルでの生理的解釈を提供するために, 置換特徴量を利用する。
これにより、モデルに符号化された時空間情報とスペクトル情報に関する洞察が得られる。
すべてのコードはgithubで入手できる(https://github.com/ricsinaruto/meg-group-decode)。
関連論文リスト
- Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Medical Vision-Language Pre-Training for Brain Abnormalities [96.1408455065347]
本稿では,PubMedなどの公共リソースから,医用画像・テキスト・アライメントデータを自動的に収集する方法を示す。
特に,まず大きな脳画像テキストデータセットを収集することにより,事前学習プロセスの合理化を図るパイプラインを提案する。
また,医療領域におけるサブフィギュアをサブキャプションにマッピングするというユニークな課題についても検討した。
論文 参考訳(メタデータ) (2024-04-27T05:03:42Z) - When are Foundation Models Effective? Understanding the Suitability for Pixel-Level Classification Using Multispectral Imagery [23.464350453312584]
非常に大きなディープラーニングモデルであるファンデーションモデルは、様々な言語やビジョンタスクにおいて印象的なパフォーマンスを示してきた。
ファンデーションモデルは、常に異なるリモートセンシングタスクに適した選択肢であり、いつ、いつ、いつ、そうでないか?
本研究の目的は,画素レベルの分類のための基礎モデルの現状と適合性を理解することである。
論文 参考訳(メタデータ) (2024-04-17T23:30:48Z) - Diffusion Models Beat GANs on Image Classification [37.70821298392606]
拡散モデルは、画像生成、復調、塗装、超解像、操作などの最先端の手法として注目されている。
本稿では,これらの埋め込みは識別情報を含むため,ノイズ予測タスクを超えて有用であり,分類にも活用できることを示す。
注意深い特徴選択とプーリングにより、拡散モデルは、分類タスクにおいて同等な生成的識別的手法より優れていることが判明した。
論文 参考訳(メタデータ) (2023-07-17T17:59:40Z) - Bilevel Fast Scene Adaptation for Low-Light Image Enhancement [50.639332885989255]
低照度シーンにおける画像の強調は、コンピュータビジョンにおいて難しいが、広く懸念されている課題である。
主な障害は、異なるシーンにまたがる分散の相違によるモデリングの混乱にある。
上述の潜在対応をモデル化するための双レベルパラダイムを導入する。
エンコーダのシーン非関連な一般化を多様なシーンにもたらすために、双方向学習フレームワークを構築した。
論文 参考訳(メタデータ) (2023-06-02T08:16:21Z) - Vision Models Are More Robust And Fair When Pretrained On Uncurated
Images Without Supervision [38.22842778742829]
差別的な自己教師型学習は、インターネット画像の任意のランダムなグループでのトレーニングモデルを可能にする。
データ前処理や事前の仮定なしで、何十億ものランダムなイメージでモデルをトレーニングします。
フェアネス、分布シフト、地理的多様性、微粒化認識、画像コピー検出、および多くの画像分類データセットを含む50以上のベンチマークにおいて、我々のモデル性能を広範囲に研究し、検証した。
論文 参考訳(メタデータ) (2022-02-16T22:26:47Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - Improving Neural Topic Models using Knowledge Distillation [84.66983329587073]
我々は,確率論的トピックモデルと事前学習されたトランスフォーマーの最適属性を組み合わせるために,知識蒸留を用いる。
我々のモジュラー手法は、どのニューラルトピックモデルでも簡単に適用でき、トピックの品質を向上させることができる。
論文 参考訳(メタデータ) (2020-10-05T22:49:16Z) - Topic Adaptation and Prototype Encoding for Few-Shot Visual Storytelling [81.33107307509718]
トピック間一般化の能力をモデル化するためのトピック適応型ストーリーテラを提案する。
また,アトピー内導出能力のモデル化を目的とした符号化手法の試作も提案する。
実験結果から,トピック適応とプロトタイプ符号化構造が相互に利益をもたらすことが明らかとなった。
論文 参考訳(メタデータ) (2020-08-11T03:55:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。