論文の概要: Categorical Difference and Related Brain Regions of the Attentional
Blink Effect
- arxiv url: http://arxiv.org/abs/2111.02044v1
- Date: Wed, 3 Nov 2021 07:11:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-04 13:15:08.219879
- Title: Categorical Difference and Related Brain Regions of the Attentional
Blink Effect
- Title(参考訳): 注意点点滅効果のカテゴリー差と関連脳領域
- Authors: Renzhou Gui, Xiaohong Ji
- Abstract要約: 注意点滅 (AB) は生物学的効果であり, 1つの視覚的標的に注意を払ってから200~500msでは次の標的に気づくことは困難である。
研究者たちは、画像のさまざまなカテゴリが人間の心の意識に異なる形でアクセス可能であることを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Attentional blink (AB) is a biological effect, showing that for 200 to 500ms
after paying attention to one visual target, it is difficult to notice another
target that appears next, and attentional blink magnitude (ABM) is a indicating
parameter to measure the degree of this effect. Researchers have shown that
different categories of images can access the consciousness of human mind
differently, and produce different ranges of ABM values. So in this paper, we
compare two different types of images, categorized as animal and object, by
predicting ABM values directly from image features extracted from convolutional
neural network (CNN), and indirectly from functional magnetic resonance imaging
(fMRI) data. First, for two sets of images, we separately extract their average
features from layers of Alexnet, a classic model of CNN, then input the
features into a trained linear regression model to predict ABM values, and we
find higher-level instead of lower-level image features determine the
categorical difference in AB effect, and mid-level image features predict ABM
values more correctly than low-level and high-level image features. Then we
employ fMRI data from different brain regions collected when the subjects
viewed 50 test images to predict ABM values, and conclude that brain regions
covering relatively broader areas, like LVC, HVC and VC, perform better than
other smaller brain regions, which means AB effect is more related to synthetic
impact of several visual brain regions than only one particular visual regions.
- Abstract(参考訳): 注意点滅(AB)は生物学的効果であり,視覚的標的に注意を払ってから200~500msでは,次に現れる他の標的に気づくことは困難であり,注意点滅度(ABM)は,この効果の度合いを測定するための指標である。
研究者たちは、画像の異なるカテゴリが人間の心の意識に異なるアクセスが可能であり、異なる範囲のABM値を生成することを示した。
そこで本稿では、畳み込みニューラルネットワーク(CNN)から抽出した画像特徴から直接ABM値を予測し、機能的磁気共鳴画像(fMRI)データから間接的に、動物と物体に分類した2種類の画像を比較する。
まず,cnnの古典的なモデルであるalexnetの層から平均的な特徴を別々に抽出し,その特徴を訓練された線形回帰モデルに入力してabm値を予測する。
次に、被験者が50個のテスト画像を見てABM値を予測する際に収集した異なる脳領域のfMRIデータを用いて、LVC、HVC、VCなどの比較的広い領域をカバーする脳領域は、他のより小さな脳領域よりも優れていると結論づけた。
関連論文リスト
- What Makes a Face Look like a Hat: Decoupling Low-level and High-level Visual Properties with Image Triplets [0.4850469728946422]
本稿では,新しい刺激のセットにおいて,低レベルの視覚特性と高レベルの視覚特性を関連付ける手法を提案する。
刺激セット生成のためのアルゴリズムにより、視覚の流れの異なる表現が高レベルの認知行動にどのように影響するかを研究することができる。
論文 参考訳(メタデータ) (2024-09-03T19:14:01Z) - Psychometry: An Omnifit Model for Image Reconstruction from Human Brain Activity [60.983327742457995]
人間の脳活動から見るイメージを再構築することで、人間とコンピュータのビジョンをBrain-Computer Interfaceを通して橋渡しする。
異なる被験者から得られた機能的磁気共鳴イメージング(fMRI)による画像再構成のための全能モデルであるサイコメトリを考案した。
論文 参考訳(メタデータ) (2024-03-29T07:16:34Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Spatial encoding of BOLD fMRI time series for categorizing static images
across visual datasets: A pilot study on human vision [3.038642416291856]
視覚に関連する神経活動の違いを理解するために、fMRI時系列(TS)を用いて特定の画像分類を行う。
視覚を理解するためには、異なる画像を見ながら脳がどのように機能するかを研究することが重要である。
並列CNNモデルは、マルチクラス分類において7%向上した他のネットワークモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-09-07T09:31:27Z) - Controllable Mind Visual Diffusion Model [58.83896307930354]
脳信号の可視化は、人間の視覚システムとコンピュータビジョンモデルの間の重要なインターフェースとして機能する活発な研究領域として登場した。
我々は、制御可能なマインドビジュアルモデル拡散(CMVDM)と呼ばれる新しいアプローチを提案する。
CMVDMは属性アライメントとアシスタントネットワークを用いてfMRIデータから意味情報とシルエット情報を抽出する。
そして、制御モデルを利用して抽出した情報を画像合成に活用し、セマンティクスやシルエットの観点から視覚刺激によく似た画像を生成する。
論文 参考訳(メタデータ) (2023-05-17T11:36:40Z) - SAM vs BET: A Comparative Study for Brain Extraction and Segmentation of
Magnetic Resonance Images using Deep Learning [0.0]
Segment Anything Model (SAM)は、より正確で堅牢で汎用的なツールとして、幅広い脳の抽出とセグメンテーションの応用の可能性を秘めている。
我々はSAMを、様々な画像品質、MR配列、脳の病変が異なる脳領域に影響を及ぼす様々な脳スキャンにおいて、BETと呼ばれる、広く使われている現在の金の標準技術と比較した。
論文 参考訳(メタデータ) (2023-04-10T17:50:52Z) - MTNeuro: A Benchmark for Evaluating Representations of Brain Structure
Across Multiple Levels of Abstraction [0.0]
脳のマッピングでは、画像を自動的に解析して、小さな特徴とグローバルな特性の両方の表現を構築することは、決定的かつオープンな課題である。
我々のベンチマーク(MTNeuro)は、マウス脳の広い領域にまたがる体積分解能X線マイクロトモグラフィー画像に基づいている。
我々は様々な予測課題を生み出し、脳領域予測と画素レベルの微構造セマンティックセマンティックセグメンテーションのための教師付きおよび自己教師型モデルを評価した。
論文 参考訳(メタデータ) (2023-01-01T04:54:03Z) - Semantic Brain Decoding: from fMRI to conceptually similar image
reconstruction of visual stimuli [0.29005223064604074]
本稿では,意味的・文脈的類似性にも依存する脳復号法を提案する。
我々は、自然視のfMRIデータセットを使用し、人間の視覚におけるボトムアップとトップダウンの両方のプロセスの存在にインスパイアされたディープラーニングデコードパイプラインを作成します。
視覚刺激の再現は, それまでの文献において, 本来の内容とセマンティックレベルで非常によく一致し, 芸術の状態を超越している。
論文 参考訳(メタデータ) (2022-12-13T16:54:08Z) - Prune and distill: similar reformatting of image information along rat
visual cortex and deep neural networks [61.60177890353585]
深部畳み込み神経ネットワーク(CNN)は、脳の機能的類似、視覚野の腹側流の優れたモデルを提供することが示されている。
ここでは、CNNまたは視覚野の内部表現で知られているいくつかの顕著な統計的パターンについて考察する。
我々は、CNNと視覚野が、オブジェクト表現の次元展開/縮小と画像情報の再構成と、同様の密接な関係を持っていることを示す。
論文 参考訳(メタデータ) (2022-05-27T08:06:40Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Fooling the primate brain with minimal, targeted image manipulation [67.78919304747498]
本稿では、行動に反映される神経活動と知覚の両方の変化をもたらす、最小限の標的画像摂動を生成するための一連の手法を提案する。
我々の研究は、敵対的攻撃、すなわち最小限のターゲットノイズによる画像の操作で同じ目標を共有し、ANNモデルに画像の誤分類を誘導する。
論文 参考訳(メタデータ) (2020-11-11T08:30:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。