論文の概要: Vis-CRF, A Classical Receptive Field Model for VISION
- arxiv url: http://arxiv.org/abs/2011.08363v1
- Date: Tue, 17 Nov 2020 01:52:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 16:37:39.765894
- Title: Vis-CRF, A Classical Receptive Field Model for VISION
- Title(参考訳): Vis-CRF - 振動の古典的受容場モデル
- Authors: Nasim Nematzadeh, David MW Powers, Trent Lewis
- Abstract要約: Vis-CRFと呼ばれる網膜ステージモデルの出力を、自然画像のサンプルとして提示する。
最後の傾き知覚は、ガウス差分(DoG)の複数スケール処理と、前景と背景要素の知覚的相互作用から生じる。
- 参考スコア(独自算出の注目度): 3.2013172123155615
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Over the last decade, a variety of new neurophysiological experiments have
led to new insights as to how, when and where retinal processing takes place,
and the nature of the retinal representation encoding sent to the cortex for
further processing. Based on these neurobiological discoveries, in our previous
work, we provided computer simulation evidence to suggest that Geometrical
illusions are explained in part, by the interaction of multiscale visual
processing performed in the retina. The output of our retinal stage model,
named Vis-CRF, is presented here for a sample of natural image and for several
types of Tilt Illusion, in which the final tilt percept arises from multiple
scale processing of Difference of Gaussians (DoG) and the perceptual
interaction of foreground and background elements (Nematzadeh and Powers, 2019;
Nematzadeh, 2018; Nematzadeh, Powers and Lewis, 2017; Nematzadeh, Lewis and
Powers, 2015).
- Abstract(参考訳): 過去10年間で、様々な新しい神経生理学的実験によって、網膜処理の時期と場所、そしてさらなる処理のために大脳皮質に送られる網膜表現の性質に関する新たな洞察がもたらされた。
これらの神経生物学的な発見に基づいて、我々は以前の研究で、幾何学的錯覚が網膜で実行されるマルチスケール視覚処理の相互作用によって部分的に説明されることを示すコンピュータシミュレーションエビデンスを提供した。
Vis-CRFという名前の網膜ステージモデルの出力は、自然画像のサンプルといくつかの種類のティルトイルシオンのために提示され、最終傾きの知覚は、ガウスの差分(DoG)の複数スケールの処理と、前景と背景要素の知覚的相互作用(Nematzadeh and Powers, 2019; Nematzadeh, 2018; Nematzadeh, Powers and Lewis, 2017; Nematzadeh, Lewis and Powers, 2015; Nematzadeh, Lewis and Powers, 2015)から生じる。
関連論文リスト
- Event-Driven Imaging in Turbid Media: A Confluence of Optoelectronics
and Neuromorphic Computation [9.53078750806038]
密度の高い濁った媒体の光散乱により視界が著しく不明瞭なターゲットの画像を明らかにするために,新しい光学計算法が導入された。
このスキームは人間の視覚にインスパイアされ、タービッド媒質から収集された拡散光子は、網膜のようにダイナミックな視覚センサーで列車に変換される。
画像再構成は、オリジナル画像が人間の目やデジタルビデオカメラに認識できない濁った条件下で達成される。
論文 参考訳(メタデータ) (2023-09-13T00:38:59Z) - NeuralClothSim: Neural Deformation Fields Meet the Kirchhoff-Love Thin
Shell Theory [75.21240705566692]
既存の布シミュレータは、異なる種類の境界条件に従う現実的な布の変形を生成する。
ニューラルネットワークの重みに表面の進化をエンコードした薄い殻を用いた新しい布シミュレーション手法を提案する。
メモリ効率と微分可能な解法は、動的曲面の新しい連続座標に基づく表現で動作する。
論文 参考訳(メタデータ) (2023-08-24T17:59:54Z) - A domain adaptive deep learning solution for scanpath prediction of
paintings [66.46953851227454]
本稿では,ある絵画の視覚的体験における視聴者の眼球運動分析に焦点を当てた。
我々は、人間の視覚的注意を予測するための新しいアプローチを導入し、人間の認知機能に影響を及ぼす。
提案した新しいアーキテクチャは、画像を取り込んでスキャンパスを返す。
論文 参考訳(メタデータ) (2022-09-22T22:27:08Z) - Guiding Visual Attention in Deep Convolutional Neural Networks Based on
Human Eye Movements [0.0]
ディープ畳み込みニューラルネットワーク(DCNN)は、当初は生物学的ビジョンの原理にインスパイアされていた。
近年のディープラーニングの進歩は、この類似性を減らしているようだ。
有用なモデルを得るための純粋にデータ駆動型アプローチについて検討する。
論文 参考訳(メタデータ) (2022-06-21T17:59:23Z) - Human Eyes Inspired Recurrent Neural Networks are More Robust Against
Adversarial Noises [3.8738982761490988]
人間の視覚と比較して、畳み込みニューラルネットワーク(CNN)に基づくコンピュータビジョンは、敵の雑音に対してより脆弱である。
この違いは、眼が視覚入力をどのようにサンプルし、脳が網膜サンプルを背側および腹側視覚経路を通してどのように処理するかに起因している可能性が高い。
我々は、人間の網膜を模倣する入力サンプリング器、次に見る場所を案内する背側ネットワーク、網膜のサンプルを表す腹側ネットワークを含む、反復的なニューラルネットワークを設計する。
これらのモジュールをひとつにまとめると、モデルはイメージを複数回見て、各見た目で健全な部分に参加し、画像を認識するために時間をかけて表現を蓄積する。
論文 参考訳(メタデータ) (2022-06-15T03:44:42Z) - Peripheral Vision Transformer [52.55309200601883]
我々は生物学的にインスパイアされたアプローチを採用し、視覚認識のためのディープニューラルネットワークの周辺視覚をモデル化する。
本稿では,マルチヘッド自己アテンション層に周辺位置エンコーディングを組み込むことにより,トレーニングデータから視覚領域を様々な周辺領域に分割することをネットワークが学べるようにすることを提案する。
大規模画像Netデータセット上でPerViTと呼ばれる提案したネットワークを評価し,マシン知覚モデルの内部動作を体系的に検討した。
論文 参考訳(メタデータ) (2022-06-14T12:47:47Z) - Prune and distill: similar reformatting of image information along rat
visual cortex and deep neural networks [61.60177890353585]
深部畳み込み神経ネットワーク(CNN)は、脳の機能的類似、視覚野の腹側流の優れたモデルを提供することが示されている。
ここでは、CNNまたは視覚野の内部表現で知られているいくつかの顕著な統計的パターンについて考察する。
我々は、CNNと視覚野が、オブジェクト表現の次元展開/縮小と画像情報の再構成と、同様の密接な関係を持っていることを示す。
論文 参考訳(メタデータ) (2022-05-27T08:06:40Z) - NeuRegenerate: A Framework for Visualizing Neurodegeneration [10.27276267081559]
被験者内の神経線維形態変化の予測と可視化のための新しいエンドツーエンドフレームワークであるNeuRegenerateを紹介する。
予測予測のために,サイクル一貫性生成対向ネットワーク(cycleGAN)に基づくディープラーニングネットワークであるneuReGANeratorを提案する。
ニューレGANeratorの再建精度は神経構造予測において94%であった。
論文 参考訳(メタデータ) (2022-02-02T16:21:14Z) - Neural Actor: Neural Free-view Synthesis of Human Actors with Pose
Control [80.79820002330457]
任意の視点と任意の制御可能なポーズの下での人間の高品質な合成法を提案する。
提案手法は,新しいポーズ合成法と同様に,再生時の最先端技術よりも優れた品質を実現し,トレーニングポーズと大きく異なる新しいポーズを一般化することができる。
論文 参考訳(メタデータ) (2021-06-03T17:40:48Z) - Fooling the primate brain with minimal, targeted image manipulation [67.78919304747498]
本稿では、行動に反映される神経活動と知覚の両方の変化をもたらす、最小限の標的画像摂動を生成するための一連の手法を提案する。
我々の研究は、敵対的攻撃、すなわち最小限のターゲットノイズによる画像の操作で同じ目標を共有し、ANNモデルに画像の誤分類を誘導する。
論文 参考訳(メタデータ) (2020-11-11T08:30:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。