論文の概要: Controlled-rearing studies of newborn chicks and deep neural networks
- arxiv url: http://arxiv.org/abs/2112.06106v1
- Date: Sun, 12 Dec 2021 00:45:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 08:55:37.071340
- Title: Controlled-rearing studies of newborn chicks and deep neural networks
- Title(参考訳): 新生ニワトリと深層ニューラルネットワークの制御-リアーニング研究
- Authors: Donsuk Lee, Pranav Gujarathi, Justin N. Wood
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、困難なオブジェクト認識タスクにおいて、人間レベルのパフォーマンスを達成することができる。
CNNは「データ空腹」と考えられており、オブジェクト認識のための正確なモデルを開発するために大量のトレーニングデータを必要とする。
この批判は、視覚発達のモデルとしてCNNを使用するという約束に挑戦する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural networks (CNNs) can now achieve human-level performance
on challenging object recognition tasks. CNNs are also the leading quantitative
models in terms of predicting neural and behavioral responses in visual
recognition tasks. However, there is a widely accepted critique of CNN models:
unlike newborn animals, which learn rapidly and efficiently, CNNs are thought
to be "data hungry," requiring massive amounts of training data to develop
accurate models for object recognition. This critique challenges the promise of
using CNNs as models of visual development. Here, we directly examined whether
CNNs are more data hungry than newborn animals by performing parallel
controlled-rearing experiments on newborn chicks and CNNs. We raised newborn
chicks in strictly controlled visual environments, then simulated the training
data available in that environment by constructing a virtual animal chamber in
a video game engine. We recorded the visual images acquired by an agent moving
through the virtual chamber and used those images to train CNNs. When CNNs
received similar visual training data as chicks, the CNNs successfully solved
the same challenging view-invariant object recognition tasks as the chicks.
Thus, the CNNs were not more data hungry than animals: both CNNs and chicks
successfully developed robust object models from training data of a single
object.
- Abstract(参考訳): 畳み込みニューラルネットワーク(cnns)は、挑戦的なオブジェクト認識タスクで人間レベルのパフォーマンスを達成することができる。
また、CNNは視覚認識タスクにおける神経および行動応答の予測における主要な定量的モデルでもある。
しかし、CNNモデルには広く受け入れられている批判がある: 高速かつ効率的に学習する新生児動物とは異なり、CNNはオブジェクト認識のための正確なモデルを開発するために大量のトレーニングデータを必要とする「データ空腹」であると考えられている。
この批判は、視覚開発モデルとしてCNNを使用するという約束に挑戦する。
そこで本研究では,新生ニワトリとCNNの並列制御実験を行うことにより,CNNが新生児より飢えているデータであるかどうかを直接検討した。
厳密に制御された視覚環境において生まれたばかりのニワトリを育て,ゲームエンジンに仮想動物室を構築することで,その環境で利用可能なトレーニングデータをシミュレートした。
仮想空間を移動するエージェントが取得した画像を記録し,その画像を用いてCNNの訓練を行った。
CNNがニワトリと同じ視覚訓練データを受け取ったとき、CNNはニワトリと同じ難解なビュー不変のオブジェクト認識タスクをうまく解決した。
CNNとニワトリはどちらも、単一のオブジェクトのトレーニングデータから堅牢なオブジェクトモデルを開発することに成功したのです。
関連論文リスト
- Using Human-like Mechanism to Weaken Effect of Pre-training Weight Bias
in Face-Recognition Convolutional Neural Network [6.0950431324191845]
我々は,神経科学者によってヒト様のモデルとして解析されたCNN(AlexNet,VGG11,VGG13,VGG16)4種に着目した。
我々はこれらのCNNを伝達学習により感情価分類タスクに訓練した。
次に、神経科学と行動データに基づく自己認識機構を用いて、オブジェクトベースのAlexNetを更新する。
論文 参考訳(メタデータ) (2023-10-20T17:22:57Z) - Transferability of Convolutional Neural Networks in Stationary Learning
Tasks [96.00428692404354]
本稿では,大規模な空間問題に対する畳み込みニューラルネットワーク(CNN)の効率的なトレーニングのための新しいフレームワークを提案する。
このような信号の小さなウィンドウで訓練されたCNNは、再学習することなく、はるかに大きなウィンドウでほぼ性能を発揮することを示す。
以上の結果から,CNNは10人未満の訓練を受けた後,数百人のエージェントによる問題に対処できることが示唆された。
論文 参考訳(メタデータ) (2023-07-21T13:51:45Z) - A novel feature-scrambling approach reveals the capacity of
convolutional neural networks to learn spatial relations [0.0]
畳み込みニューラルネットワーク(CNN)は、物体認識を解く最も成功したコンピュータビジョンシステムの一つである。
しかし、CNNが実際にどのように決断を下すのか、内部表現の性質や認識戦略が人間とどのように異なるのかは、いまだに理解されていない。
論文 参考訳(メタデータ) (2022-12-12T16:40:29Z) - InternImage: Exploring Large-Scale Vision Foundation Models with
Deformable Convolutions [95.94629864981091]
この研究は、パラメータの増加やViTsのようなトレーニングデータから得られるインターンイメージと呼ばれる、CNNベースの新しい大規模ファンデーションモデルを提案する。
提案されたInternImageは、従来のCNNの厳格な帰納バイアスを低減し、ViTのような大規模データから、より強く堅牢なパターンを学習できるようにする。
論文 参考訳(メタデータ) (2022-11-10T18:59:04Z) - Improving the Accuracy and Robustness of CNNs Using a Deep CCA Neural
Data Regularizer [2.026424957803652]
畳み込みニューラルネットワーク(CNN)がオブジェクト認識においてより正確になるにつれて、それらの表現は霊長類の視覚システムとよりよく似ている。
この問題に対処する以前の試みは、正規化法の制限により、精度が極端に向上した。
我々は,CNNのイメージ表現とサル視覚野との類似性を最適化するために,ディープ相関解析(DCCA)を用いた新しいCNN用ニューラルデータ正規化器を開発した。
論文 参考訳(メタデータ) (2022-09-06T15:40:39Z) - Prune and distill: similar reformatting of image information along rat
visual cortex and deep neural networks [61.60177890353585]
深部畳み込み神経ネットワーク(CNN)は、脳の機能的類似、視覚野の腹側流の優れたモデルを提供することが示されている。
ここでは、CNNまたは視覚野の内部表現で知られているいくつかの顕著な統計的パターンについて考察する。
我々は、CNNと視覚野が、オブジェクト表現の次元展開/縮小と画像情報の再構成と、同様の密接な関係を持っていることを示す。
論文 参考訳(メタデータ) (2022-05-27T08:06:40Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - A CNN-based Feature Space for Semi-supervised Incremental Learning in
Assisted Living Applications [2.1485350418225244]
トレーニングデータセットから得られた特徴空間を用いて、問題のある画像を自動的にラベル付けする。
その結果、半教師付き漸進的な学習プロセスにより、新しいインスタンスの分類精度を40%向上させることができる。
論文 参考訳(メタデータ) (2020-11-11T12:31:48Z) - An Information-theoretic Visual Analysis Framework for Convolutional
Neural Networks [11.15523311079383]
CNNモデルから抽出可能なデータを整理するデータモデルを提案する。
次に、異なる状況下でエントロピーを計算する2つの方法を提案する。
我々は,モデル内の情報変化量をインタラクティブに探索する視覚解析システムCNNSlicerを開発した。
論文 参考訳(メタデータ) (2020-05-02T21:36:50Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。