論文の概要: High-contrast "gaudy" images improve the training of deep neural network
models of visual cortex
- arxiv url: http://arxiv.org/abs/2006.11412v1
- Date: Sat, 13 Jun 2020 20:05:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 20:24:37.032336
- Title: High-contrast "gaudy" images improve the training of deep neural network
models of visual cortex
- Title(参考訳): 高コントラスト「ゴーディ」画像は視覚野の深層ニューラルネットワークモデルの訓練を改善する
- Authors: Benjamin R. Cowley, Jonathan W. Pillow
- Abstract要約: 視覚系の感覚変換を理解する上で重要な課題は、視覚皮質ニューロンからの応答の予測モデルを得ることである。
ディープニューラルネットワーク(DNN)は、そのようなモデルの有望な候補を提供する。
そこで本研究では,DNNを極力少ないトレーニングデータで訓練する画像を提案する。
- 参考スコア(独自算出の注目度): 21.219431687928523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A key challenge in understanding the sensory transformations of the visual
system is to obtain a highly predictive model of responses from visual cortical
neurons. Deep neural networks (DNNs) provide a promising candidate for such a
model. However, DNNs require orders of magnitude more training data than
neuroscientists can collect from real neurons because experimental recording
time is severely limited. This motivates us to find images that train
highly-predictive DNNs with as little training data as possible. We propose
gaudy images---high-contrast binarized versions of natural images---to
efficiently train DNNs. In extensive simulation experiments, we find that
training DNNs with gaudy images substantially reduces the number of training
images needed to accurately predict the simulated responses of visual cortical
neurons. We also find that gaudy images, chosen before training, outperform
images chosen during training by active learning algorithms. Thus, gaudy images
overemphasize features of natural images, especially edges, that are the most
important for efficiently training DNNs. We believe gaudy images will aid in
the modeling of visual cortical neurons, potentially opening new scientific
questions about visual processing, as well as aid general practitioners that
seek ways to improve the training of DNNs.
- Abstract(参考訳): 視覚系の感覚変換を理解する上で重要な課題は、視覚皮質ニューロンからの応答の予測モデルを得ることである。
ディープニューラルネットワーク(DNN)は、そのようなモデルの有望な候補を提供する。
しかし、DNNは実験記録時間が著しく制限されているため、神経科学者が実際のニューロンから収集できるデータよりも、桁違いに多くの訓練データを必要とする。
これにより、可能な限り少ないトレーニングデータで、予測性の高いDNNをトレーニングするイメージを見つけることができます。
自然画像の高コントラスト二項化バージョンであるゴーディー画像を提案し,DNNを効率的に訓練する。
広範にわたるシミュレーション実験では,ガウディ画像を用いたDNNのトレーニングにより,視覚皮質ニューロンのシミュレーション応答を正確に予測するために必要なトレーニング画像の数が大幅に減少することがわかった。
また,学習前に選択したガウディ画像は,能動学習アルゴリズムによる学習中に選択した画像よりも優れていた。
したがって、ゴーディー画像は、DNNを効率的に訓練する上で最も重要な自然画像、特にエッジの特徴を過度に強調する。
ゴーディ画像は、視覚皮質ニューロンのモデリングを助け、視覚処理に関する新たな科学的疑問を提起し、dnnのトレーニングを改善する方法を求める一般実践者を助けるだろうと考えています。
関連論文リスト
- When Spiking neural networks meet temporal attention image decoding and adaptive spiking neuron [7.478056407323783]
スパイキングニューラルネットワーク(SNN)は、生物学的に妥当な方法で時間情報をエンコードし、処理することができる。
本稿では,時間的注意(TAID)に基づく画像復号法と適応型Leaky-Integrate-and-Fireニューロンモデルを提案する。
論文 参考訳(メタデータ) (2024-06-05T08:21:55Z) - Fast gradient-free activation maximization for neurons in spiking neural networks [5.805438104063613]
このようなループのための効率的な設計のフレームワークを提案する。
トレーニング中の人工ニューロンの最適刺激の変化を追跡する。
この洗練された最適刺激の形成は、分類精度の増大と関連している。
論文 参考訳(メタデータ) (2023-12-28T18:30:13Z) - Performance-optimized deep neural networks are evolving into worse
models of inferotemporal visual cortex [8.45100792118802]
深部ニューラルネットワーク(DNN)の物体認識精度は,非時間的(IT)大脳皮質の自然画像に対する神経応答を予測する能力と相関することを示した。
この結果から,高調波DNNは画像ネット精度とニューラル予測精度のトレードオフを断ち切ることが示唆された。
論文 参考訳(メタデータ) (2023-06-06T15:34:45Z) - Adapting Brain-Like Neural Networks for Modeling Cortical Visual
Prostheses [68.96380145211093]
皮質補綴は視覚野に移植された装置で、電気的にニューロンを刺激することで失った視力を回復しようとする。
現在、これらのデバイスが提供する視覚は限られており、刺激による視覚知覚を正確に予測することはオープンな課題である。
我々は、視覚システムの有望なモデルとして登場した「脳様」畳み込みニューラルネットワーク(CNN)を活用することで、この問題に対処することを提案する。
論文 参考訳(メタデータ) (2022-09-27T17:33:19Z) - Feature visualization for convolutional neural network models trained on
neuroimaging data [0.0]
畳み込みニューラルネットワーク(CNN)の機能可視化による最初の結果を示す。
我々は、MRIデータに基づく性分類や人為的病変分類など、さまざまなタスクのためにCNNを訓練した。
得られた画像は、その形状を含む人工的な病変の学習概念を明らかにするが、性分類タスクにおける抽象的な特徴を解釈することは困難である。
論文 参考訳(メタデータ) (2022-03-24T15:24:38Z) - Deep Auto-encoder with Neural Response [8.797970797884023]
ニューラルレスポンス(DAE-NR)を用いたディープオートエンコーダと呼ばれるハイブリッドモデルを提案する。
DAE-NRは、視覚野からの情報をANNに組み込んで、より優れた画像再構成と、生物学的および人工ニューロン間の高い神経表現類似性を実現する。
DAE-NRは, 共同学習によって(画像再構成の性能の向上) 生体ニューロンと人工ニューロンとの表現的類似性の向上が可能であることを実証した。
論文 参考訳(メタデータ) (2021-11-30T11:44:17Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Fast Training of Neural Lumigraph Representations using Meta Learning [109.92233234681319]
我々は、リアルタイムにレンダリングできる高品質な表現を素早く学習することを目的として、新しいニューラルレンダリングアプローチを開発した。
われわれのアプローチであるMetaNLR++は、ニューラル形状表現と2次元CNNに基づく画像特徴抽出、集約、再投影のユニークな組み合わせを用いてこれを実現する。
そこで本研究では,MetaNLR++が類似あるいはより優れたフォトリアリスティックなノベルビュー合成を実現し,競合する手法が要求される時間のほんの少しの時間で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-28T18:55:50Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。