論文の概要: An anatomy-based V1 model: Extraction of Low-level Features, Reduction
of distortion and a V1-inspired SOM
- arxiv url: http://arxiv.org/abs/2302.09074v1
- Date: Sat, 18 Feb 2023 08:06:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 20:25:08.242190
- Title: An anatomy-based V1 model: Extraction of Low-level Features, Reduction
of distortion and a V1-inspired SOM
- Title(参考訳): 解剖に基づくV1モデル:低レベル特徴抽出、歪み低減、V1誘発SOM
- Authors: Suvam Roy and Nikhil Ranjan Pal
- Abstract要約: 解剖学的実験によって導かれた一次視覚野V1のモデルを示す。
本モデルでは,V1層4,2/3,5の層間結合を解剖学的に求める。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a model of the primary visual cortex V1, guided by anatomical
experiments. Unlike most machine learning systems our goal is not to maximize
accuracy but to realize a system more aligned to biological systems. Our model
consists of the V1 layers 4, 2/3, and 5, with inter-layer connections between
them in accordance with the anatomy. We further include the orientation
selectivity of the V1 neurons and lateral influences in each layer. Our V1
model, when applied to the BSDS500 ground truth images (indicating LGN contour
detection before V1), can extract low-level features from the images and
perform a significant amount of distortion reduction. As a follow-up to our V1
model, we propose a V1-inspired self-organizing map algorithm (V1-SOM), where
the weight update of each neuron gets influenced by its neighbors. V1-SOM can
tolerate noisy inputs as well as noise in the weight updates better than SOM
and shows a similar level of performance when trained with high dimensional
data such as the MNIST dataset. Finally, when we applied V1 processing to the
MNIST dataset to extract low-level features and trained V1-SOM with the
modified MNIST dataset, the quantization error was significantly reduced. Our
results support the hypothesis that the ventral stream performs gradual
untangling of input spaces.
- Abstract(参考訳): 解剖学的実験によって導かれた一次視覚野V1のモデルを示す。
ほとんどの機械学習システムとは異なり、私たちの目標は正確性を最大化するのではなく、生体システムとより整合したシステムを実現することです。
本モデルは, v1層4, 2/3, 5で構成され, 層間接続は解剖学的に異なる。
さらに、V1ニューロンの配向選択性と各層における側方の影響を含める。
bsds500 ground truthイメージ(v1以前のlgn輪郭検出を示す)に適用したv1モデルは、画像から低レベル特徴を抽出し、相当量の歪み低減を行うことができる。
V1モデルの追従として、V1-インスパイアされた自己組織化マップアルゴリズム(V1-SOM)を提案する。
V1-SOMは、SOMよりも重量更新のノイズだけでなくノイズも許容し、MNISTデータセットのような高次元データでトレーニングされた場合と同様のパフォーマンスを示す。
最後に、MNISTデータセットにV1処理を適用して低レベルの特徴を抽出し、修正したMNISTデータセットを用いてV1-SOMを訓練すると、量子化誤差が大幅に減少した。
本結果は, 入力空間の漸進的アンハングリングを行うという仮説を支持する。
関連論文リスト
- Scaling Laws for Task-Optimized Models of the Primate Visual Ventral Stream [3.4526439922541705]
霊長類視覚腹側流(VVS)のモデリングにおけるスケーリング法則の評価を行った。
行動アライメントはより大きなモデルでスケールし続けるが、ニューラルアライメントは飽和する。
スケーリングの増加は、少数のサンプルでトレーニングされた小さなモデルでは、アライメントが不十分である、高レベルの視覚領域において特に有益である。
論文 参考訳(メタデータ) (2024-11-08T17:13:53Z) - Deep Learning Based Apparent Diffusion Coefficient Map Generation from Multi-parametric MR Images for Patients with Diffuse Gliomas [1.5267759610392577]
拡散強調(DWI)MRIから得られたADCマップは、組織内の水分子に関する機能的測定を提供する。
本研究では,多パラメータMR画像からADCマップを合成するディープラーニングフレームワークを開発することを目的とする。
論文 参考訳(メタデータ) (2024-07-02T19:08:40Z) - Silkie: Preference Distillation for Large Visual Language Models [56.10697821410489]
本稿では,大型視覚言語モデル(LVLM)の嗜好蒸留について検討する。
まず,AIアノテーションを用いた視覚言語フィードバックデータセットを構築した。
我々は, GPT-4V を用いて, 有用性, 視覚的忠実性, 倫理的考察のアウトプットを評価する。
結果として得られたモデルSilkieは、認知能力と認知能力に関するMMEベンチマークで6.9%と9.5%の相対的な改善を達成している。
論文 参考訳(メタデータ) (2023-12-17T09:44:27Z) - Matching the Neuronal Representations of V1 is Necessary to Improve
Robustness in CNNs with V1-like Front-ends [1.8434042562191815]
近年,畳み込みニューラルネットワークの前方における初期視覚領域の計算シミュレーションにより,画像劣化に対するロバスト性の向上が示されている。
ここでは、霊長類V1に見られるRF特性の分布を正確に一致させることから生じる神経表現が、この堅牢性向上の鍵となることを示す。
論文 参考訳(メタデータ) (2023-10-16T16:52:15Z) - Multi-modal Gaussian Process Variational Autoencoders for Neural and
Behavioral Data [0.9622208190558754]
そこで本研究では,時間的に進化する共振子と独立潜光子を個別に同時記録した実験モードのために抽出する非教師付き潜光子変数モデルを提案する。
我々は,ポアソンスパイク数と時間とともにスムーズかつスムーズに回転するMNIST画像からなるシミュレーションマルチモーダルデータに対して,本モデルの有効性を検証した。
マルチモーダルGP-VAEは、モダリティ間の共有および独立の潜伏構造を正確に識別できるだけでなく、保留試験において画像とニューラルレートの両方を適切に再構成できることを示す。
論文 参考訳(メタデータ) (2023-10-04T19:04:55Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - V1T: large-scale mouse V1 response prediction using a Vision Transformer [1.5703073293718952]
動物間における視覚的・行動的表現の共有を学習するビジョントランスフォーマーに基づく新しいアーキテクチャであるV1Tを紹介する。
マウスの一次視覚野から記録された2つの大きなデータセットを用いて、我々のモデルを評価し、予測性能を12.7%以上向上させた。
論文 参考訳(メタデータ) (2023-02-06T18:58:38Z) - Convolutional Neural Generative Coding: Scaling Predictive Coding to
Natural Images [79.07468367923619]
畳み込み型神経生成符号化(Conv-NGC)を開発した。
我々は、潜伏状態マップを段階的に洗練する柔軟な神経生物学的動機付けアルゴリズムを実装した。
本研究は,脳にインスパイアされたニューラル・システムによる再建と画像復調の課題に対する効果について検討する。
論文 参考訳(メタデータ) (2022-11-22T06:42:41Z) - GradViT: Gradient Inversion of Vision Transformers [83.54779732309653]
我々は,視力変換器(ViT)の勾配に基づく逆攻撃に対する脆弱性を実証する。
自然に見える画像にランダムノイズを最適化するGradViTという手法を提案する。
元の(隠された)データに対する前例のない高い忠実さと近接性を観察する。
論文 参考訳(メタデータ) (2022-03-22T17:06:07Z) - Emergence of Lie symmetries in functional architectures learned by CNNs [63.69764116066748]
本研究では,自然画像の学習において,畳み込みニューラルネットワーク(CNN)の初期層における対称性の自発的発達について検討する。
私たちのアーキテクチャは、生体視覚システムの初期段階を模倣するために構築されています。
論文 参考訳(メタデータ) (2021-04-17T13:23:26Z) - Prediction of progressive lens performance from neural network
simulations [62.997667081978825]
本研究の目的は,畳み込みニューラルネットワーク(CNN)に基づく視覚的視力(VA)予測の枠組みを提案することである。
提案する総合シミュレーションツールは主観的視覚性能の正確なモデルとして機能することが示されている。
論文 参考訳(メタデータ) (2021-03-19T14:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。