論文の概要: Investigating the changes in BOLD responses during viewing of images
with varied complexity: An fMRI time-series based analysis on human vision
- arxiv url: http://arxiv.org/abs/2309.15495v1
- Date: Wed, 27 Sep 2023 08:46:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 14:32:42.253574
- Title: Investigating the changes in BOLD responses during viewing of images
with varied complexity: An fMRI time-series based analysis on human vision
- Title(参考訳): 複雑な画像の観察におけるBOLD応答の変化に関する考察:人間の視覚に基づくfMRI時系列解析
- Authors: Naveen Kanigiri, Manohar Suggula, Debanjali Bhattacharya and Neelam
Sinha
- Abstract要約: 本研究の目的は、fMRI時系列解析(TS)を用いて、画像の視認における人間の脳反応の神経学的変化について検討することである。
最初の研究では、画像の複雑性に特有のfMRI TSを分類するために、古典的な機械学習とディープラーニング戦略を採用している。
この分析によって得られた結果は、多種多様な複雑度の画像を観察しながら、人間の脳機能の違いを研究する上での基礎となるものとなった。
- 参考スコア(独自算出の注目度): 2.7036595757881323
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Functional MRI (fMRI) is widely used to examine brain functionality by
detecting alteration in oxygenated blood flow that arises with brain activity.
This work aims to investigate the neurological variation of human brain
responses during viewing of images with varied complexity using fMRI time
series (TS) analysis. Publicly available BOLD5000 dataset is used for this
purpose which contains fMRI scans while viewing 5254 distinct images of diverse
categories, drawn from three standard computer vision datasets: COCO, Imagenet
and SUN. To understand vision, it is important to study how brain functions
while looking at images of diverse complexities. Our first study employs
classical machine learning and deep learning strategies to classify image
complexity-specific fMRI TS, represents instances when images from COCO,
Imagenet and SUN datasets are seen. The implementation of this classification
across visual datasets holds great significance, as it provides valuable
insights into the fluctuations in BOLD signals when perceiving images of
varying complexities. Subsequently, temporal semantic segmentation is also
performed on whole fMRI TS to segment these time instances. The obtained result
of this analysis has established a baseline in studying how differently human
brain functions while looking into images of diverse complexities. Therefore,
accurate identification and distinguishing of variations in BOLD signals from
fMRI TS data serves as a critical initial step in vision studies, providing
insightful explanations for how static images with diverse complexities are
perceived.
- Abstract(参考訳): 機能MRI(Functional MRI)は脳活動に伴う酸素化血流の変化を検出することで脳機能を調べるために広く用いられている。
本研究は,fMRI時系列解析を用いて,画像観察における脳反応の神経学的変動について検討することを目的とする。
BOLD5000データセットはこの目的のために使用されており、fMRIスキャンを含むとともに、COCO、Imagenet、SUNの3つの標準的なコンピュータビジョンデータセットから、5254の異なるカテゴリのイメージを見ることができる。
視覚を理解するには、様々な複雑な画像を見ながら脳がどのように機能するかを研究することが重要である。
最初の研究では、従来の機械学習とディープラーニングの手法を用いて、画像の複雑性に特有のfMRI TSを分類し、COCO、Imagenet、SUNデータセットからの画像を表示する。
この分類は、様々な複雑さの画像を認識する際にBOLD信号のゆらぎについての貴重な洞察を提供するため、視覚的データセットにまたがる実装が重要である。
その後、時間的意味的セグメンテーションもfMRI TS全体で行われ、これらのタイムインスタンスをセグメンテーションする。
この分析の結果、人間の脳の機能がどのように異なるかを研究する上での基礎が確立された。
したがって、fMRI TSデータからのBOLD信号の正確な識別と変動の識別は、視覚研究における重要な第一歩であり、様々な複雑さを持つ静的画像がどのように知覚されるかについての洞察に富む説明を提供する。
関連論文リスト
- Towards General Text-guided Image Synthesis for Customized Multimodal Brain MRI Generation [51.28453192441364]
マルチモーダル脳磁気共鳴(MR)イメージングは神経科学や神経学において不可欠である。
現在のMR画像合成アプローチは、通常、特定のタスクのための独立したデータセットで訓練される。
テキスト誘導ユニバーサルMR画像合成モデルであるTUMSynについて述べる。
論文 参考訳(メタデータ) (2024-09-25T11:14:47Z) - Autoregressive Sequence Modeling for 3D Medical Image Representation [48.706230961589924]
本稿では, 自己回帰シーケンス事前学習フレームワークを用いて, 3次元医用画像表現を学習するための先駆的手法を提案する。
我々は,空間的,コントラスト的,意味的相関に基づく様々な3次元医用画像にアプローチし,トークンシーケンス内の相互接続された視覚トークンとして扱う。
論文 参考訳(メタデータ) (2024-09-13T10:19:10Z) - MindFormer: Semantic Alignment of Multi-Subject fMRI for Brain Decoding [50.55024115943266]
本稿では,MindFormer を用いたマルチオブジェクト fMRI 信号のセマンティックアライメント手法を提案する。
このモデルは、fMRIから画像生成のための安定拡散モデルや、fMRIからテキスト生成のための大規模言語モデル(LLM)の条件付けに使用できるfMRI条件付き特徴ベクトルを生成するように設計されている。
実験の結果,MindFormerは意味的に一貫した画像とテキストを異なる主題にわたって生成することがわかった。
論文 参考訳(メタデータ) (2024-05-28T00:36:25Z) - MindTuner: Cross-Subject Visual Decoding with Visual Fingerprint and Semantic Correction [21.531569319105877]
クロスオブジェクトタスクにおける高品質な画像の再構成は、被験者間の個人差が深いため、難しい問題である。
MindTunerは1時間分のfMRIトレーニングデータを使用して高品質で豊かなセマンティックな再構築を実現する。
論文 参考訳(メタデータ) (2024-04-19T05:12:04Z) - Psychometry: An Omnifit Model for Image Reconstruction from Human Brain Activity [60.983327742457995]
人間の脳活動から見るイメージを再構築することで、人間とコンピュータのビジョンをBrain-Computer Interfaceを通して橋渡しする。
異なる被験者から得られた機能的磁気共鳴イメージング(fMRI)による画像再構成のための全能モデルであるサイコメトリを考案した。
論文 参考訳(メタデータ) (2024-03-29T07:16:34Z) - Brain-ID: Learning Contrast-agnostic Anatomical Representations for
Brain Imaging [11.06907516321673]
脳画像のための解剖学的表現学習モデルであるBrain-IDを導入する。
提案された"Mild-to-Severe"イントラオブジェクト生成により、Brain-IDは被験者固有の脳解剖に対して堅牢である。
本稿では,物体内および物体間ロバスト性を評価するための新しい指標を提案し,その性能を4つの下流アプリケーションで評価する。
論文 参考訳(メタデータ) (2023-11-28T16:16:10Z) - Image complexity based fMRI-BOLD visual network categorization across
visual datasets using topological descriptors and deep-hybrid learning [3.522950356329991]
本研究の目的は,視覚的データセットと異なる視覚刺激に応答して,ネットワークトポロジがどう異なるかを検討することである。
これを実現するために、COCO、ImageNet、SUNを表す視覚ネットワーク毎に0次元および1次元の永続図を演算する。
抽出したK平均クラスター特徴は、これらの視覚ネットワークの分類において90%-95%の範囲で精度の高い新しいディープハイブリッドモデルに供給される。
論文 参考訳(メタデータ) (2023-11-03T14:05:57Z) - Spatial encoding of BOLD fMRI time series for categorizing static images
across visual datasets: A pilot study on human vision [3.038642416291856]
視覚に関連する神経活動の違いを理解するために、fMRI時系列(TS)を用いて特定の画像分類を行う。
視覚を理解するためには、異なる画像を見ながら脳がどのように機能するかを研究することが重要である。
並列CNNモデルは、マルチクラス分類において7%向上した他のネットワークモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-09-07T09:31:27Z) - On Sensitivity and Robustness of Normalization Schemes to Input
Distribution Shifts in Automatic MR Image Diagnosis [58.634791552376235]
深層学習(DL)モデルは、再構成画像を入力として、複数の疾患の診断において最先端のパフォーマンスを達成した。
DLモデルは、トレーニングとテストフェーズ間の入力データ分布の変化につながるため、さまざまなアーティファクトに敏感である。
本稿では,グループ正規化やレイヤ正規化といった他の正規化手法を用いて,画像のさまざまなアーチファクトに対して,モデル性能にロバスト性を注入することを提案する。
論文 参考訳(メタデータ) (2023-06-23T03:09:03Z) - BrainCLIP: Bridging Brain and Visual-Linguistic Representation Via CLIP
for Generic Natural Visual Stimulus Decoding [51.911473457195555]
BrainCLIPはタスクに依存しないfMRIベースの脳復号モデルである。
脳の活動、画像、およびテキストの間のモダリティギャップを埋める。
BrainCLIPは、高い意味的忠実度で視覚刺激を再構築することができる。
論文 参考訳(メタデータ) (2023-02-25T03:28:54Z) - The Neural Correlates of Image Texture in the Human Vision Using
Magnetoencephalography [1.3198689566654107]
画像のテクスチャ特性は、人間とコンピュータの両方の視覚アプリケーションにおいて、オブジェクト認識タスクにおいて最も重要な特徴の1つである。
ここでは, コントラスト, 均一性, エネルギー, 相関関係を含む4つのよく知られた統計テクスチャの特徴のニューラルシグネチャについて検討した。
結果: コントラスト, 同質性, エネルギー, 相関関係の順で, これら4つのテクスチャ記述子の処理における階層構造について検討した。
論文 参考訳(メタデータ) (2021-11-16T01:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。