論文の概要: Image complexity based fMRI-BOLD visual network categorization across
visual datasets using topological descriptors and deep-hybrid learning
- arxiv url: http://arxiv.org/abs/2311.08417v1
- Date: Fri, 3 Nov 2023 14:05:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-19 14:03:54.545205
- Title: Image complexity based fMRI-BOLD visual network categorization across
visual datasets using topological descriptors and deep-hybrid learning
- Title(参考訳): 画像複雑性に基づくfMRI-BOLD視覚ネットワーク分類 : トポロジカルディスクリプタと深層ハイブリッド学習を用いて
- Authors: Debanjali Bhattacharya, Neelam Sinha, Yashwanth R. and Amit
Chattopadhyay
- Abstract要約: 本研究の目的は,視覚的データセットと異なる視覚刺激に応答して,ネットワークトポロジがどう異なるかを検討することである。
これを実現するために、COCO、ImageNet、SUNを表す視覚ネットワーク毎に0次元および1次元の永続図を演算する。
抽出したK平均クラスター特徴は、これらの視覚ネットワークの分類において90%-95%の範囲で精度の高い新しいディープハイブリッドモデルに供給される。
- 参考スコア(独自算出の注目度): 3.522950356329991
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This study proposes a new approach that investigates differences in
topological characteristics of visual networks, which are constructed using
fMRI BOLD time-series corresponding to visual datasets of COCO, ImageNet, and
SUN. A publicly available BOLD5000 dataset is utilized that contains fMRI scans
while viewing 5254 images of diverse complexities. The objective of this study
is to examine how network topology differs in response to distinct visual
stimuli from these visual datasets. To achieve this, 0- and 1-dimensional
persistence diagrams are computed for each visual network representing COCO,
ImageNet, and SUN. For extracting suitable features from topological
persistence diagrams, K-means clustering is executed. The extracted K-means
cluster features are fed to a novel deep-hybrid model that yields accuracy in
the range of 90%-95% in classifying these visual networks. To understand
vision, this type of visual network categorization across visual datasets is
important as it captures differences in BOLD signals while perceiving images
with different contexts and complexities. Furthermore, distinctive topological
patterns of visual network associated with each dataset, as revealed from this
study, could potentially lead to the development of future neuroimaging
biomarkers for diagnosing visual processing disorders like visual agnosia or
prosopagnosia, and tracking changes in visual cognition over time.
- Abstract(参考訳): 本研究では,COCO,ImageNet,SUNの視覚データセットに対応するfMRI BOLD時系列を用いて構築した視覚ネットワークの位相特性の違いを解析する新しい手法を提案する。
さまざまな複雑さの5254の画像を見ながらfMRIスキャンを含むBOLD5000データセットが公開されている。
本研究の目的は,これらの視覚データセットと異なる視覚刺激に応答して,ネットワークトポロジがどう異なるかを検討することである。
これを実現するために、COCO、ImageNet、SUNを表す視覚ネットワーク毎に0次元および1次元の永続図を演算する。
トポロジ的永続図から適切な特徴を抽出するために、K平均クラスタリングを実行する。
抽出したK平均クラスター特徴は、これらの視覚ネットワークの分類において90%-95%の範囲で精度の高い新しいディープハイブリッドモデルに供給される。
視覚を理解するために、このタイプの視覚ネットワーク分類は、異なるコンテキストと複雑さを持つ画像を知覚しながら、大胆な信号の差を捉えるために重要である。
さらに、各データセットに関連付けられた視覚ネットワークの特徴的なトポロジカルパターンは、視覚失認や予後などの視覚処理障害を診断し、時間とともに視覚認知の変化を追跡する、将来の神経画像バイオマーカーの開発につながる可能性がある。
関連論文リスト
- Neural Clustering based Visual Representation Learning [61.72646814537163]
クラスタリングは、機械学習とデータ分析における最も古典的なアプローチの1つである。
本稿では,特徴抽出をデータから代表者を選択するプロセスとみなすクラスタリング(FEC)による特徴抽出を提案する。
FECは、個々のクラスタにピクセルをグループ化して抽象的な代表を配置し、現在の代表とピクセルの深い特徴を更新する。
論文 参考訳(メタデータ) (2024-03-26T06:04:50Z) - Investigating the changes in BOLD responses during viewing of images
with varied complexity: An fMRI time-series based analysis on human vision [2.7036595757881323]
本研究の目的は、fMRI時系列解析(TS)を用いて、画像の視認における人間の脳反応の神経学的変化について検討することである。
最初の研究では、画像の複雑性に特有のfMRI TSを分類するために、古典的な機械学習とディープラーニング戦略を採用している。
この分析によって得られた結果は、多種多様な複雑度の画像を観察しながら、人間の脳機能の違いを研究する上での基礎となるものとなった。
論文 参考訳(メタデータ) (2023-09-27T08:46:09Z) - Spatial encoding of BOLD fMRI time series for categorizing static images
across visual datasets: A pilot study on human vision [3.038642416291856]
視覚に関連する神経活動の違いを理解するために、fMRI時系列(TS)を用いて特定の画像分類を行う。
視覚を理解するためには、異なる画像を見ながら脳がどのように機能するかを研究することが重要である。
並列CNNモデルは、マルチクラス分類において7%向上した他のネットワークモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-09-07T09:31:27Z) - Graph Self-Supervised Learning for Endoscopic Image Matching [1.8275108630751844]
鍵点間の空間関係をモデル化するために,局所的な視覚的外観を捉える畳み込みニューラルネットワークと注目に基づくグラフニューラルネットワークを組み合わせた,新たな自己教師型アプローチを提案する。
我々のアプローチはラベル付きデータを必要とせず、完全に自己管理されたスキームで訓練されている。
提案手法は,最先端の手工法と深層学習法より優れ,精度(1)とマッチングスコア(99.3%)で優れた性能を示す。
論文 参考訳(メタデータ) (2023-06-19T19:53:41Z) - Controllable Mind Visual Diffusion Model [58.83896307930354]
脳信号の可視化は、人間の視覚システムとコンピュータビジョンモデルの間の重要なインターフェースとして機能する活発な研究領域として登場した。
我々は、制御可能なマインドビジュアルモデル拡散(CMVDM)と呼ばれる新しいアプローチを提案する。
CMVDMは属性アライメントとアシスタントネットワークを用いてfMRIデータから意味情報とシルエット情報を抽出する。
そして、制御モデルを利用して抽出した情報を画像合成に活用し、セマンティクスやシルエットの観点から視覚刺激によく似た画像を生成する。
論文 参考訳(メタデータ) (2023-05-17T11:36:40Z) - Peripheral Vision Transformer [52.55309200601883]
我々は生物学的にインスパイアされたアプローチを採用し、視覚認識のためのディープニューラルネットワークの周辺視覚をモデル化する。
本稿では,マルチヘッド自己アテンション層に周辺位置エンコーディングを組み込むことにより,トレーニングデータから視覚領域を様々な周辺領域に分割することをネットワークが学べるようにすることを提案する。
大規模画像Netデータセット上でPerViTと呼ばれる提案したネットワークを評価し,マシン知覚モデルの内部動作を体系的に検討した。
論文 参考訳(メタデータ) (2022-06-14T12:47:47Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Learning Hierarchical Graph Representation for Image Manipulation
Detection [50.04902159383709]
画像操作検出の目的は、画像内の操作された領域を特定し、特定することである。
最近のアプローチでは、画像に残っている改ざんするアーティファクトをキャプチャするために、洗練された畳み込みニューラルネットワーク(CNN)が採用されている。
本稿では2つの並列分岐からなる階層型グラフ畳み込みネットワーク(HGCN-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-15T01:54:25Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Graph Neural Networks for UnsupervisedDomain Adaptation of
Histopathological ImageAnalytics [22.04114134677181]
組織像解析のための教師なし領域適応のための新しい手法を提案する。
特徴空間に画像を埋め込むバックボーンと、ラベルで画像の監視信号をプロパゲートするグラフニューラルネットワーク層に基づいている。
実験では、4つの公開データセット上での最先端のパフォーマンスを評価する。
論文 参考訳(メタデータ) (2020-08-21T04:53:44Z) - Neural encoding and interpretation for high-level visual cortices based
on fMRI using image caption features [14.038605815510145]
本研究では、画像キャプション(IC)タスクと、高レベルの視覚皮質のボクセルを符号化するためのIC特徴に基づく視覚符号化モデルを提案する。
論文 参考訳(メタデータ) (2020-03-26T08:47:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。