論文の概要: Using Human-like Mechanism to Weaken Effect of Pre-training Weight Bias
in Face-Recognition Convolutional Neural Network
- arxiv url: http://arxiv.org/abs/2310.13674v1
- Date: Fri, 20 Oct 2023 17:22:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 21:30:59.329548
- Title: Using Human-like Mechanism to Weaken Effect of Pre-training Weight Bias
in Face-Recognition Convolutional Neural Network
- Title(参考訳): 顔認知畳み込みニューラルネットワークにおけるプレトレーニング重みバイアスの効果を弱めるためのヒューマンライクなメカニズム
- Authors: Haojiang Ying, Yi-Fan Li, Yiyang Chen
- Abstract要約: 我々は,神経科学者によってヒト様のモデルとして解析されたCNN(AlexNet,VGG11,VGG13,VGG16)4種に着目した。
我々はこれらのCNNを伝達学習により感情価分類タスクに訓練した。
次に、神経科学と行動データに基づく自己認識機構を用いて、オブジェクトベースのAlexNetを更新する。
- 参考スコア(独自算出の注目度): 6.0950431324191845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural network (CNN), as an important model in artificial
intelligence, has been widely used and studied in different disciplines. The
computational mechanisms of CNNs are still not fully revealed due to the their
complex nature. In this study, we focused on 4 extensively studied CNNs
(AlexNet, VGG11, VGG13, and VGG16) which has been analyzed as human-like models
by neuroscientists with ample evidence. We trained these CNNs to emotion
valence classification task by transfer learning. Comparing their performance
with human data, the data unveiled that these CNNs would partly perform as
human does. We then update the object-based AlexNet using self-attention
mechanism based on neuroscience and behavioral data. The updated FE-AlexNet
outperformed all the other tested CNNs and closely resembles human perception.
The results further unveil the computational mechanisms of these CNNs.
Moreover, this study offers a new paradigm to better understand and improve CNN
performance via human data.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は人工知能の重要なモデルであり、様々な分野で広く使われ研究されている。
CNNの計算機構は、その複雑な性質のため、まだ完全には明らかになっていない。
本研究では,神経科学者によって人間に似たモデルとして分析されたcnn (alexnet, vgg11, vgg13, vgg16) を, 広く研究した。
我々はこれらのCNNを伝達学習により感情価分類タスクに訓練した。
彼らのパフォーマンスと人間のデータを比較したデータによると、これらのcnnは人間と同じように部分的に機能する。
次に、神経科学と行動データに基づく自己認識機構を用いて、オブジェクトベースのAlexNetを更新する。
FE-AlexNetは、他のテスト済みCNNよりも優れており、人間の知覚によく似ている。
これらのCNNの計算機構をさらに明らかにした。
さらに,本研究では,人間データによるCNN性能の理解と改善のための新しいパラダイムを提案する。
関連論文リスト
- Transferability of Convolutional Neural Networks in Stationary Learning
Tasks [96.00428692404354]
本稿では,大規模な空間問題に対する畳み込みニューラルネットワーク(CNN)の効率的なトレーニングのための新しいフレームワークを提案する。
このような信号の小さなウィンドウで訓練されたCNNは、再学習することなく、はるかに大きなウィンドウでほぼ性能を発揮することを示す。
以上の結果から,CNNは10人未満の訓練を受けた後,数百人のエージェントによる問題に対処できることが示唆された。
論文 参考訳(メタデータ) (2023-07-21T13:51:45Z) - Improving the Accuracy and Robustness of CNNs Using a Deep CCA Neural
Data Regularizer [2.026424957803652]
畳み込みニューラルネットワーク(CNN)がオブジェクト認識においてより正確になるにつれて、それらの表現は霊長類の視覚システムとよりよく似ている。
この問題に対処する以前の試みは、正規化法の制限により、精度が極端に向上した。
我々は,CNNのイメージ表現とサル視覚野との類似性を最適化するために,ディープ相関解析(DCCA)を用いた新しいCNN用ニューラルデータ正規化器を開発した。
論文 参考訳(メタデータ) (2022-09-06T15:40:39Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Controlled-rearing studies of newborn chicks and deep neural networks [0.0]
畳み込みニューラルネットワーク(CNN)は、困難なオブジェクト認識タスクにおいて、人間レベルのパフォーマンスを達成することができる。
CNNは「データ空腹」と考えられており、オブジェクト認識のための正確なモデルを開発するために大量のトレーニングデータを必要とする。
この批判は、視覚発達のモデルとしてCNNを使用するという約束に挑戦する。
論文 参考訳(メタデータ) (2021-12-12T00:45:07Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Assessing learned features of Deep Learning applied to EEG [0.0]
生の脳波データに基づいて訓練されたCNNから脳波関連特徴を抽出するために3つの異なる手法を用いる。
我々は,CNNモデルの可視化により,興味深い脳波結果が得られることを示した。
論文 参考訳(メタデータ) (2021-11-08T07:43:40Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - The shape and simplicity biases of adversarially robust ImageNet-trained
CNNs [9.707679445925516]
本稿では,AlexNet,GoogLeNet,ResNet-50モデルの汎用性を実現するための形状バイアスと内部機構について検討する。
興味深いことに、敵の訓練はCNNの「不正化」過程において隠れたニューロンに3つの単純バイアスを誘導する。
論文 参考訳(メタデータ) (2020-06-16T16:38:16Z) - An Information-theoretic Visual Analysis Framework for Convolutional
Neural Networks [11.15523311079383]
CNNモデルから抽出可能なデータを整理するデータモデルを提案する。
次に、異なる状況下でエントロピーを計算する2つの方法を提案する。
我々は,モデル内の情報変化量をインタラクティブに探索する視覚解析システムCNNSlicerを開発した。
論文 参考訳(メタデータ) (2020-05-02T21:36:50Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。