論文の概要: Ultrafast Image Categorization in Biology and Neural Models
- arxiv url: http://arxiv.org/abs/2205.03635v4
- Date: Wed, 31 May 2023 05:30:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 04:39:51.579057
- Title: Ultrafast Image Categorization in Biology and Neural Models
- Title(参考訳): 生体・神経モデルにおける超高速画像分類
- Authors: Jean-Nicolas J\'er\'emie, Laurent U Perrinet
- Abstract要約: 生態学的に人間に関係のある2つの独立したタスクについて,標準VGG 16 CNNを再訓練した。
ネットワークの再トレーニングは、精神物理学的なタスクで報告されたのに匹敵する、人間のようなパフォーマンスのレベルを達成することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans are able to categorize images very efficiently, in particular to
detect the presence of an animal very quickly. Recently, deep learning
algorithms based on convolutional neural networks (CNNs) have achieved higher
than human accuracy for a wide range of visual categorization tasks. However,
the tasks on which these artificial networks are typically trained and
evaluated tend to be highly specialized and do not generalize well, e.g.,
accuracy drops after image rotation. In this respect, biological visual systems
are more flexible and efficient than artificial systems for more general tasks,
such as recognizing an animal. To further the comparison between biological and
artificial neural networks, we re-trained the standard VGG 16 CNN on two
independent tasks that are ecologically relevant to humans: detecting the
presence of an animal or an artifact. We show that re-training the network
achieves a human-like level of performance, comparable to that reported in
psychophysical tasks. In addition, we show that the categorization is better
when the outputs of the models are combined. Indeed, animals (e.g., lions) tend
to be less present in photographs that contain artifacts (e.g., buildings).
Furthermore, these re-trained models were able to reproduce some unexpected
behavioral observations from human psychophysics, such as robustness to
rotation (e.g., an upside-down or tilted image) or to a grayscale
transformation. Finally, we quantified the number of CNN layers required to
achieve such performance and showed that good accuracy for ultrafast image
categorization can be achieved with only a few layers, challenging the belief
that image recognition requires deep sequential analysis of visual objects.
- Abstract(参考訳): 人間は画像を非常に効率的に分類することができ、特に動物の存在を素早く検出することができる。
近年、畳み込みニューラルネットワーク(cnns)に基づくディープラーニングアルゴリズムは、幅広い視覚分類タスクにおいて、人間よりも高い精度を達成している。
しかしながら、これらの人工ネットワークを訓練し、評価するタスクは高度に特殊化され、画像回転後の精度低下など、うまく一般化しない傾向にある。
この点において、生体視覚システムは動物を認識するなどのより一般的なタスクのために人工的なシステムよりも柔軟で効率的である。
生物と人工ニューラルネットの比較をさらに進めるために,動物や人工物の存在を検知する2つの独立したタスクについて,標準のvgg 16 cnnを再訓練した。
ネットワークの再トレーニングは、心理物理学的なタスクで報告されたのに匹敵する、人間ライクなパフォーマンスを達成している。
さらに,モデルの出力を組み合わせれば,分類が優れていることを示す。
実際、動物(例:ライオン)は、人工物(例:建物)を含む写真にはほとんど存在しない傾向にある。
さらに、これらの再訓練されたモデルは、ロバスト性から回転(例えば逆さまや傾いた画像)、グレースケール変換など、人間の精神物理学から予期せぬ行動観察を再現することができた。
最後に,このような性能を達成するのに必要なcnn層数を定量化し,超高速画像分類の精度をほんの数層で達成できることを示し,画像認識には視覚オブジェクトの深いシーケンシャル解析が必要であるという信念に異議を唱えた。
関連論文リスト
- Evaluating alignment between humans and neural network representations in image-based learning tasks [5.657101730705275]
トレーニング済みの860ドルのニューラルネットワークモデルの表現が、人間の学習軌跡にどのようにマッピングされているかテストしました。
トレーニングデータセットのサイズは人間の選択に沿った中核的な決定要因であるのに対し、マルチモーダルデータ(テキストと画像)による対照的なトレーニングは、人間の一般化を予測するために現在公開されているモデルの一般的な特徴であることがわかった。
結論として、事前訓練されたニューラルネットワークは、タスク間で伝達可能な認知の基本的な側面を捉えているように見えるため、認知モデルのための表現を抽出するのに役立つ。
論文 参考訳(メタデータ) (2023-06-15T08:18:29Z) - Multi-Domain Norm-referenced Encoding Enables Data Efficient Transfer
Learning of Facial Expression Recognition [62.997667081978825]
本稿では,表情認識における伝達学習のための生物学的メカニズムを提案する。
提案アーキテクチャでは,人間の脳が,頭部形状の異なる表情を自然に認識する方法について解説する。
本モデルでは, FERGデータセットの分類精度92.15%を極端に高いデータ効率で達成する。
論文 参考訳(メタデータ) (2023-04-05T09:06:30Z) - Connecting metrics for shape-texture knowledge in computer vision [1.7785095623975342]
深層ニューラルネットワークは、人間が画像の分類ミスを起こさないような、画像の多くの変化の影響を受けやすいままである。
この異なる振る舞いの一部は、視覚タスクで人間とディープニューラルネットワークが使用する機能の種類によって説明できるかもしれない。
論文 参考訳(メタデータ) (2023-01-25T14:37:42Z) - Wild Animal Classifier Using CNN [0.0]
畳み込みニューラルネットワーク(CNN)は、特定の入力を予測するために異なる重みを持つ複数の層を持つ。
画像セグメンテーションは、画像の関心領域の明確な区切りを提供する、そのような広く使われている画像処理手法である。
論文 参考訳(メタデータ) (2022-10-03T13:14:08Z) - Guiding Visual Attention in Deep Convolutional Neural Networks Based on
Human Eye Movements [0.0]
ディープ畳み込みニューラルネットワーク(DCNN)は、当初は生物学的ビジョンの原理にインスパイアされていた。
近年のディープラーニングの進歩は、この類似性を減らしているようだ。
有用なモデルを得るための純粋にデータ駆動型アプローチについて検討する。
論文 参考訳(メタデータ) (2022-06-21T17:59:23Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - Fooling the primate brain with minimal, targeted image manipulation [67.78919304747498]
本稿では、行動に反映される神経活動と知覚の両方の変化をもたらす、最小限の標的画像摂動を生成するための一連の手法を提案する。
我々の研究は、敵対的攻撃、すなわち最小限のターゲットノイズによる画像の操作で同じ目標を共有し、ANNモデルに画像の誤分類を誘導する。
論文 参考訳(メタデータ) (2020-11-11T08:30:54Z) - Deep Low-Shot Learning for Biological Image Classification and
Visualization from Limited Training Samples [52.549928980694695]
In situ hybridization (ISH) gene expression pattern image from the same developmental stage。
正確な段階のトレーニングデータをラベル付けするのは、生物学者にとっても非常に時間がかかる。
限られた訓練画像を用いてISH画像を正確に分類する2段階の低ショット学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T06:06:06Z) - Seeing eye-to-eye? A comparison of object recognition performance in
humans and deep convolutional neural networks under image manipulation [0.0]
本研究では,ヒトとフィードフォワードニューラルネットワークの視覚コア物体認識性能の行動比較を目的とした。
精度分析の結果、人間はDCNNを全ての条件で上回るだけでなく、形状や色の変化に対する強い堅牢性も示している。
論文 参考訳(メタデータ) (2020-07-13T10:26:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。