論文の概要: Performance-optimized deep neural networks are evolving into worse
models of inferotemporal visual cortex
- arxiv url: http://arxiv.org/abs/2306.03779v1
- Date: Tue, 6 Jun 2023 15:34:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 14:44:47.138787
- Title: Performance-optimized deep neural networks are evolving into worse
models of inferotemporal visual cortex
- Title(参考訳): パフォーマンス最適化された深部ニューラルネットワークは、時間外視覚野の悪化モデルに進化している
- Authors: Drew Linsley, Ivan F. Rodriguez, Thomas Fel, Michael Arcaro, Saloni
Sharma, Margaret Livingstone, Thomas Serre
- Abstract要約: 深部ニューラルネットワーク(DNN)の物体認識精度は,非時間的(IT)大脳皮質の自然画像に対する神経応答を予測する能力と相関することを示した。
この結果から,高調波DNNは画像ネット精度とニューラル予測精度のトレードオフを断ち切ることが示唆された。
- 参考スコア(独自算出の注目度): 8.45100792118802
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the most impactful findings in computational neuroscience over the
past decade is that the object recognition accuracy of deep neural networks
(DNNs) correlates with their ability to predict neural responses to natural
images in the inferotemporal (IT) cortex. This discovery supported the
long-held theory that object recognition is a core objective of the visual
cortex, and suggested that more accurate DNNs would serve as better models of
IT neuron responses to images. Since then, deep learning has undergone a
revolution of scale: billion parameter-scale DNNs trained on billions of images
are rivaling or outperforming humans at visual tasks including object
recognition. Have today's DNNs become more accurate at predicting IT neuron
responses to images as they have grown more accurate at object recognition?
Surprisingly, across three independent experiments, we find this is not the
case. DNNs have become progressively worse models of IT as their accuracy has
increased on ImageNet. To understand why DNNs experience this trade-off and
evaluate if they are still an appropriate paradigm for modeling the visual
system, we turn to recordings of IT that capture spatially resolved maps of
neuronal activity elicited by natural images. These neuronal activity maps
reveal that DNNs trained on ImageNet learn to rely on different visual features
than those encoded by IT and that this problem worsens as their accuracy
increases. We successfully resolved this issue with the neural harmonizer, a
plug-and-play training routine for DNNs that aligns their learned
representations with humans. Our results suggest that harmonized DNNs break the
trade-off between ImageNet accuracy and neural prediction accuracy that assails
current DNNs and offer a path to more accurate models of biological vision.
- Abstract(参考訳): 過去10年間の計算神経科学における最も影響力のある発見の1つは、ディープニューラルネットワーク(DNN)の物体認識精度が、非時間的(IT)大脳皮質の自然画像に対する神経反応を予測する能力と相関していることである。
この発見は、物体認識が視覚野の中核的な目的であるという長年の理論を支持し、より正確なDNNが画像に対するITニューロン反応のモデルとして役立つことを示唆した。
何十億もの画像で訓練された数十億のパラメータスケールのDNNは、オブジェクト認識を含む視覚的タスクにおいて、人間に匹敵したり、上回ったりしている。
今日のDNNは、オブジェクト認識の精度が向上するにつれて、画像に対するITニューロンの反応を予測する精度が向上していますか?
意外なことに、3つの独立した実験では、そうではない。
DNNは、ImageNetの精度が向上するにつれて、ITのモデルが徐々に悪化している。
DNNがなぜこのトレードオフを経験したのかを理解し、視覚システムをモデル化するための適切なパラダイムであるかどうかを評価するために、自然画像によって引き起こされた空間的に解決された神経活動の地図をキャプチャするITの記録に目を向ける。
これらのニューロンのアクティビティマップは、ImageNetで訓練されたDNNが、ITによって符号化されたものとは異なる視覚的特徴に頼ることを学び、精度が上がるにつれてこの問題が悪化することを示している。
私たちは、学習した表現を人間と一致させるDNNのためのプラグアンドプレイトレーニングルーチンであるNeural harmonizerで、この問題をうまく解決しました。
以上の結果から,高調波DNNはイメージネットの精度とニューラル予測の精度のトレードオフを断ち切ることが示唆された。
関連論文リスト
- When Spiking neural networks meet temporal attention image decoding and adaptive spiking neuron [7.478056407323783]
スパイキングニューラルネットワーク(SNN)は、生物学的に妥当な方法で時間情報をエンコードし、処理することができる。
本稿では,時間的注意(TAID)に基づく画像復号法と適応型Leaky-Integrate-and-Fireニューロンモデルを提案する。
論文 参考訳(メタデータ) (2024-06-05T08:21:55Z) - Are Deep Neural Networks Adequate Behavioural Models of Human Visual
Perception? [8.370048099732573]
ディープニューラルネットワーク(Deep Neural Network, DNN)は、コンピュータビジョンに革命をもたらした機械学習アルゴリズムである。
統計ツールと計算モデルとを区別することが重要であると論じる。
我々は視覚科学においてDNNを取り巻く多くの神話を排除した。
論文 参考訳(メタデータ) (2023-05-26T15:31:06Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Models Developed for Spiking Neural Networks [0.5801044612920815]
スパイキングニューラルネットワーク(SNN)は長い間存在しており、脳のダイナミクスを理解するために研究されてきた。
本研究では,画像分類タスクにおけるSNNの構造と性能について検討した。
比較は、これらのネットワークがより複雑な問題に対して優れた能力を示すことを示している。
論文 参考訳(メタデータ) (2022-12-08T16:18:53Z) - Harmonizing the object recognition strategies of deep neural networks
with humans [10.495114898741205]
最先端のディープニューラルネットワーク(DNN)は、精度が向上するにつれて、人間との整合性が低下していることを示す。
我々の研究は、現在DNNの設計を導くスケーリング法則が、人間の視覚を悪化させるモデルを生み出した最初の例である。
論文 参考訳(メタデータ) (2022-11-08T20:03:49Z) - Adapting Brain-Like Neural Networks for Modeling Cortical Visual
Prostheses [68.96380145211093]
皮質補綴は視覚野に移植された装置で、電気的にニューロンを刺激することで失った視力を回復しようとする。
現在、これらのデバイスが提供する視覚は限られており、刺激による視覚知覚を正確に予測することはオープンな課題である。
我々は、視覚システムの有望なモデルとして登場した「脳様」畳み込みニューラルネットワーク(CNN)を活用することで、この問題に対処することを提案する。
論文 参考訳(メタデータ) (2022-09-27T17:33:19Z) - Deep Reinforcement Learning Guided Graph Neural Networks for Brain
Network Analysis [61.53545734991802]
本稿では,各脳ネットワークに最適なGNNアーキテクチャを探索する新しい脳ネットワーク表現フレームワークBN-GNNを提案する。
提案するBN-GNNは,脳ネットワーク解析タスクにおける従来のGNNの性能を向上させる。
論文 参考訳(メタデータ) (2022-03-18T07:05:27Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - High-contrast "gaudy" images improve the training of deep neural network
models of visual cortex [21.219431687928523]
視覚系の感覚変換を理解する上で重要な課題は、視覚皮質ニューロンからの応答の予測モデルを得ることである。
ディープニューラルネットワーク(DNN)は、そのようなモデルの有望な候補を提供する。
そこで本研究では,DNNを極力少ないトレーニングデータで訓練する画像を提案する。
論文 参考訳(メタデータ) (2020-06-13T20:05:16Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。