論文の概要: Ultra-fast image categorization in vivo and in silico
- arxiv url: http://arxiv.org/abs/2205.03635v1
- Date: Sat, 7 May 2022 11:19:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-15 09:08:33.712728
- Title: Ultra-fast image categorization in vivo and in silico
- Title(参考訳): 生体内およびシリコにおける超高速画像分類
- Authors: Jean-Nicolas J\'er\'emie, Laurent U Perrinet
- Abstract要約: 我々は、人間に生態学的に関係のある2つの独立したタスクについて、標準VGG畳み込みニューラルネットワーク(CNN)を再訓練した。
ネットワークの再トレーニングは精神物理学的なタスクで報告される人間のようなパフォーマンスレベルを達成することを示す。
これらの再訓練されたモデルは、人間の精神物理学から予期せぬ行動観察を再現する可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans are able to robustly categorize images and can, for instance, detect
the presence of an animal in a briefly flashed image in as little as 120 ms.
Initially inspired by neuroscience, deep-learning algorithms literally bloomed
up in the last decade such that the accuracy of machines is at present superior
to humans for visual recognition tasks. However, these artificial networks are
usually trained and evaluated on very specific tasks, for instance on the 1000
separate categories of ImageNet. In that regard, biological visual systems are
more flexible and efficient compared to artificial systems on generic
ecological tasks. In order to deepen this comparison, we re-trained the
standard VGG Convolutional Neural Network (CNN) on two independent tasks which
are ecologically relevant for humans: one task defined as detecting the
presence of an animal and the other as detecting the presence of an artifact.
We show that retraining the network achieves human-like performance level which
is reported in psychophysical tasks. We also compare the accuracy of the
detection on an image-by-image basis. This showed in particular that the two
models perform better when combining their outputs. Indeed, animals (e.g.
lions) tend to be less present in photographs containing artifacts (e.g.
buildings). These re-trained models could reproduce some unexpected behavioral
observations from humans psychophysics such as the robustness to rotations
(e.g. upside-down or slanted image) or to a grayscale transformation.
- Abstract(参考訳): 人間は画像のロバストな分類が可能で、例えば、120ミリ秒以内の短時間の点滅画像で動物の存在を検知することができる。最初は神経科学に触発されたディープラーニングアルゴリズムは、この10年間で文字通り、機械の正確さが現在、視覚認識タスクにおいて人間よりも優れているように花開いた。
しかし、これらの人工ネットワークは通常、imagenetの1000のカテゴリなど、非常に特定のタスクで訓練され、評価される。
その点において、生物視覚システムは、汎用生態学的タスクの人工システムよりも柔軟で効率的である。
この比較をさらに深めるため,動物の存在を検出するために定義されたタスクと人工物の存在を検出するタスクの2つの独立したタスクについて,標準的なVGG畳み込みニューラルネットワーク(CNN)を再訓練した。
ネットワークの再トレーニングは,心理物理学的タスクで報告されるような人間的なパフォーマンスレベルを達成する。
また,画像別検出の精度も比較した。
これは特に、2つのモデルが出力を組み合わせれば性能が良くなることを示した。
実際、動物(例えばライオン)は、アーティファクト(例えば建物)を含む写真では存在しがちである。
これらの再訓練されたモデルは、強靭性から回転(例えば逆さまや斜めのイメージ)やグレースケールの変換といった人間の精神物理学から予期せぬ行動観察を再現することができる。
関連論文リスト
- Evaluating alignment between humans and neural network representations in image-based learning tasks [5.657101730705275]
トレーニング済みの860ドルのニューラルネットワークモデルの表現が、人間の学習軌跡にどのようにマッピングされているかテストしました。
トレーニングデータセットのサイズは人間の選択に沿った中核的な決定要因であるのに対し、マルチモーダルデータ(テキストと画像)による対照的なトレーニングは、人間の一般化を予測するために現在公開されているモデルの一般的な特徴であることがわかった。
結論として、事前訓練されたニューラルネットワークは、タスク間で伝達可能な認知の基本的な側面を捉えているように見えるため、認知モデルのための表現を抽出するのに役立つ。
論文 参考訳(メタデータ) (2023-06-15T08:18:29Z) - Multi-Domain Norm-referenced Encoding Enables Data Efficient Transfer
Learning of Facial Expression Recognition [62.997667081978825]
本稿では,表情認識における伝達学習のための生物学的メカニズムを提案する。
提案アーキテクチャでは,人間の脳が,頭部形状の異なる表情を自然に認識する方法について解説する。
本モデルでは, FERGデータセットの分類精度92.15%を極端に高いデータ効率で達成する。
論文 参考訳(メタデータ) (2023-04-05T09:06:30Z) - Connecting metrics for shape-texture knowledge in computer vision [1.7785095623975342]
深層ニューラルネットワークは、人間が画像の分類ミスを起こさないような、画像の多くの変化の影響を受けやすいままである。
この異なる振る舞いの一部は、視覚タスクで人間とディープニューラルネットワークが使用する機能の種類によって説明できるかもしれない。
論文 参考訳(メタデータ) (2023-01-25T14:37:42Z) - Wild Animal Classifier Using CNN [0.0]
畳み込みニューラルネットワーク(CNN)は、特定の入力を予測するために異なる重みを持つ複数の層を持つ。
画像セグメンテーションは、画像の関心領域の明確な区切りを提供する、そのような広く使われている画像処理手法である。
論文 参考訳(メタデータ) (2022-10-03T13:14:08Z) - Guiding Visual Attention in Deep Convolutional Neural Networks Based on
Human Eye Movements [0.0]
ディープ畳み込みニューラルネットワーク(DCNN)は、当初は生物学的ビジョンの原理にインスパイアされていた。
近年のディープラーニングの進歩は、この類似性を減らしているようだ。
有用なモデルを得るための純粋にデータ駆動型アプローチについて検討する。
論文 参考訳(メタデータ) (2022-06-21T17:59:23Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - Fooling the primate brain with minimal, targeted image manipulation [67.78919304747498]
本稿では、行動に反映される神経活動と知覚の両方の変化をもたらす、最小限の標的画像摂動を生成するための一連の手法を提案する。
我々の研究は、敵対的攻撃、すなわち最小限のターゲットノイズによる画像の操作で同じ目標を共有し、ANNモデルに画像の誤分類を誘導する。
論文 参考訳(メタデータ) (2020-11-11T08:30:54Z) - Deep Low-Shot Learning for Biological Image Classification and
Visualization from Limited Training Samples [52.549928980694695]
In situ hybridization (ISH) gene expression pattern image from the same developmental stage。
正確な段階のトレーニングデータをラベル付けするのは、生物学者にとっても非常に時間がかかる。
限られた訓練画像を用いてISH画像を正確に分類する2段階の低ショット学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T06:06:06Z) - Seeing eye-to-eye? A comparison of object recognition performance in
humans and deep convolutional neural networks under image manipulation [0.0]
本研究では,ヒトとフィードフォワードニューラルネットワークの視覚コア物体認識性能の行動比較を目的とした。
精度分析の結果、人間はDCNNを全ての条件で上回るだけでなく、形状や色の変化に対する強い堅牢性も示している。
論文 参考訳(メタデータ) (2020-07-13T10:26:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。