論文の概要: Harmonizing the object recognition strategies of deep neural networks
with humans
- arxiv url: http://arxiv.org/abs/2211.04533v1
- Date: Tue, 8 Nov 2022 20:03:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 16:12:24.219371
- Title: Harmonizing the object recognition strategies of deep neural networks
with humans
- Title(参考訳): 深層ニューラルネットワークの物体認識戦略と人間との調和
- Authors: Thomas Fel, Ivan Felipe, Drew Linsley, Thomas Serre
- Abstract要約: 最先端のディープニューラルネットワーク(DNN)は、精度が向上するにつれて、人間との整合性が低下していることを示す。
我々の研究は、現在DNNの設計を導くスケーリング法則が、人間の視覚を悪化させるモデルを生み出した最初の例である。
- 参考スコア(独自算出の注目度): 10.495114898741205
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The many successes of deep neural networks (DNNs) over the past decade have
largely been driven by computational scale rather than insights from biological
intelligence. Here, we explore if these trends have also carried concomitant
improvements in explaining the visual strategies humans rely on for object
recognition. We do this by comparing two related but distinct properties of
visual strategies in humans and DNNs: where they believe important visual
features are in images and how they use those features to categorize objects.
Across 84 different DNNs trained on ImageNet and three independent datasets
measuring the where and the how of human visual strategies for object
recognition on those images, we find a systematic trade-off between DNN
categorization accuracy and alignment with human visual strategies for object
recognition. State-of-the-art DNNs are progressively becoming less aligned with
humans as their accuracy improves. We rectify this growing issue with our
neural harmonizer: a general-purpose training routine that both aligns DNN and
human visual strategies and improves categorization accuracy. Our work
represents the first demonstration that the scaling laws that are guiding the
design of DNNs today have also produced worse models of human vision. We
release our code and data at https://serre-lab.github.io/Harmonization to help
the field build more human-like DNNs.
- Abstract(参考訳): 過去10年間のディープニューラルネットワーク(DNN)の成功の多くは、生物学的インテリジェンスからの洞察ではなく、計算スケールによって支えられている。
ここでは、これらの傾向が、人間が物体認識に頼っている視覚的戦略の説明において、相反する改善をもたらしたかどうかを考察する。
我々は、人間とDNNにおける視覚戦略の2つの関連性と異なる特性を比較し、画像に重要な視覚的特徴があると考え、それらの特徴を使ってオブジェクトを分類する。
ImageNetで訓練された84種類のDNNと3つの独立したデータセットを用いて、画像上の物体認識のための人間の視覚戦略の場所と方法を測定し、DNN分類精度と物体認識のための人間の視覚戦略との整合性の間に体系的なトレードオフを見出した。
最先端のDNNは、精度が向上するにつれて、徐々に人間との整合性が低下している。
DNNと人間の視覚戦略を一致させ、分類精度を向上させる汎用的なトレーニングルーチンです。
我々の研究は、現在DNNの設計を導くスケーリング法則が、人間の視覚を悪化させるモデルを生み出した最初の例である。
コードとデータはhttps://serre-lab.github.io/Harmonizationで公開しています。
関連論文リスト
- Dimensions underlying the representational alignment of deep neural networks with humans [3.1668470116181817]
我々は、人間とディープニューラルネットワーク(DNN)において、同等の表現を得るための一般的なフレームワークを提案する。
この枠組みを人間に適用し、自然画像のDNNモデルを用いて、視覚次元と意味次元の両方の低次元DNN埋め込みを明らかにした。
人間とは対照的に、DNNは視覚的オーバーセマンティックな特徴の明確な優位性を示し、画像を表現するための異なる戦略を示した。
論文 参考訳(メタデータ) (2024-06-27T11:14:14Z) - Graph Neural Networks for Brain Graph Learning: A Survey [53.74244221027981]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのマイニングにおいて大きな優位性を示している。
脳障害解析のための脳グラフ表現を学習するGNNが最近注目を集めている。
本稿では,GNNを利用した脳グラフ学習の成果をレビューすることで,このギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-06-01T02:47:39Z) - Fixing the problems of deep neural networks will require better training
data and learning algorithms [20.414456664907316]
DNNは人間のものとは大きく異なる戦略に依存しているため、生物学的ビジョンのモデルが貧弱である、と我々は主張する。
DNNが大規模化し、ますます正確になっているため、この問題は悪化している。
論文 参考訳(メタデータ) (2023-09-26T03:09:00Z) - Performance-optimized deep neural networks are evolving into worse
models of inferotemporal visual cortex [8.45100792118802]
深部ニューラルネットワーク(DNN)の物体認識精度は,非時間的(IT)大脳皮質の自然画像に対する神経応答を予測する能力と相関することを示した。
この結果から,高調波DNNは画像ネット精度とニューラル予測精度のトレードオフを断ち切ることが示唆された。
論文 参考訳(メタデータ) (2023-06-06T15:34:45Z) - Adversarial alignment: Breaking the trade-off between the strength of an
attack and its relevance to human perception [10.883174135300418]
敵対的な攻撃は長年、深層学習の「アキレスのヒール」と見なされてきた。
本稿では、ImageNetにおけるDNNの敵攻撃に対する堅牢性がどのように発展し、精度が向上し続けているかを検討する。
論文 参考訳(メタデータ) (2023-06-05T20:26:17Z) - Are Deep Neural Networks Adequate Behavioural Models of Human Visual
Perception? [8.370048099732573]
ディープニューラルネットワーク(Deep Neural Network, DNN)は、コンピュータビジョンに革命をもたらした機械学習アルゴリズムである。
統計ツールと計算モデルとを区別することが重要であると論じる。
我々は視覚科学においてDNNを取り巻く多くの神話を排除した。
論文 参考訳(メタデータ) (2023-05-26T15:31:06Z) - Deep Reinforcement Learning Guided Graph Neural Networks for Brain
Network Analysis [61.53545734991802]
本稿では,各脳ネットワークに最適なGNNアーキテクチャを探索する新しい脳ネットワーク表現フレームワークBN-GNNを提案する。
提案するBN-GNNは,脳ネットワーク解析タスクにおける従来のGNNの性能を向上させる。
論文 参考訳(メタデータ) (2022-03-18T07:05:27Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - How Do Adam and Training Strategies Help BNNs Optimization? [50.22482900678071]
我々は、AdamがBNNの粗い損失面を扱うのに適しており、より高い一般化能力でより良い最適値に達することを示す。
我々は、既存のAdamベースの最適化に基づいて、ImageNetデータセット上で70.5%のトップ1の精度を達成する簡単なトレーニングスキームを導出する。
論文 参考訳(メタデータ) (2021-06-21T17:59:51Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。