論文の概要: A neural network walks into a lab: towards using deep nets as models for
human behavior
- arxiv url: http://arxiv.org/abs/2005.02181v1
- Date: Sat, 2 May 2020 11:17:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 11:41:53.201074
- Title: A neural network walks into a lab: towards using deep nets as models for
human behavior
- Title(参考訳): ニューラルネットワークが実験室に入る:人間の行動のモデルとしてディープネットを使う
- Authors: Wei Ji Ma and Benjamin Peters
- Abstract要約: ディープニューラルネットワークモデルが人間の行動の興味深いモデルになり得る理由を論じる。
我々はそのポテンシャルがより完全に実現される方法について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: What might sound like the beginning of a joke has become an attractive
prospect for many cognitive scientists: the use of deep neural network models
(DNNs) as models of human behavior in perceptual and cognitive tasks. Although
DNNs have taken over machine learning, attempts to use them as models of human
behavior are still in the early stages. Can they become a versatile model class
in the cognitive scientist's toolbox? We first argue why DNNs have the
potential to be interesting models of human behavior. We then discuss how that
potential can be more fully realized. On the one hand, we argue that the cycle
of training, testing, and revising DNNs needs to be revisited through the lens
of the cognitive scientist's goals. Specifically, we argue that methods for
assessing the goodness of fit between DNN models and human behavior have to
date been impoverished. On the other hand, cognitive science might have to
start using more complex tasks (including richer stimulus spaces), but doing so
might be beneficial for DNN-independent reasons as well. Finally, we highlight
avenues where traditional cognitive process models and DNNs may show productive
synergy.
- Abstract(参考訳): 深層ニューラルネットワークモデル(dnn)を知覚的および認知的タスクにおける人間の行動のモデルとして使用することで、多くの認知科学者にとって、ジョークの始まりのように聞こえるようになる。
DNNは機械学習を引き継いだが、人間の行動のモデルとして使用しようとする試みはまだ初期段階にある。
認知科学者のツールボックスで汎用的なモデルクラスになれるだろうか?
まず、DNNが人間の行動の興味深いモデルになる可能性について論じる。
そして、そのポテンシャルをより完全に実現する方法について論じる。
一方、DNNのトレーニング、テスト、改訂のサイクルは、認知科学者の目標のレンズを通して再考する必要があると論じている。
具体的には、DNNモデルと人間の行動の適合性を評価する手法が、現在までに不足していることを論じる。
一方、認知科学はより複雑なタスク(より豊かな刺激空間を含む)を使い始める必要があるかもしれないが、それはDNNに依存しない理由にも有益かもしれない。
最後に、従来の認知プロセスモデルとDNNが生産的な相乗効果を示す方法を強調した。
関連論文リスト
- Performance-optimized deep neural networks are evolving into worse
models of inferotemporal visual cortex [8.45100792118802]
深部ニューラルネットワーク(DNN)の物体認識精度は,非時間的(IT)大脳皮質の自然画像に対する神経応答を予測する能力と相関することを示した。
この結果から,高調波DNNは画像ネット精度とニューラル予測精度のトレードオフを断ち切ることが示唆された。
論文 参考訳(メタデータ) (2023-06-06T15:34:45Z) - Are Deep Neural Networks Adequate Behavioural Models of Human Visual
Perception? [8.370048099732573]
ディープニューラルネットワーク(Deep Neural Network, DNN)は、コンピュータビジョンに革命をもたらした機械学習アルゴリズムである。
統計ツールと計算モデルとを区別することが重要であると論じる。
我々は視覚科学においてDNNを取り巻く多くの神話を排除した。
論文 参考訳(メタデータ) (2023-05-26T15:31:06Z) - Is it conceivable that neurogenesis, neural Darwinism, and species
evolution could all serve as inspiration for the creation of evolutionary
deep neural networks? [0.0]
Deep Neural Networks (DNN)は、人工知能ニューラルネットワークを使って構築されている。
本稿では,脳の2次元進化の重要性を強調する。
また、DNNの正規化に広く用いられているドロップアウト法と脳神経新生との関連を強調した。
論文 参考訳(メタデータ) (2023-04-06T14:51:20Z) - Models Developed for Spiking Neural Networks [0.5801044612920815]
スパイキングニューラルネットワーク(SNN)は長い間存在しており、脳のダイナミクスを理解するために研究されてきた。
本研究では,画像分類タスクにおけるSNNの構造と性能について検討した。
比較は、これらのネットワークがより複雑な問題に対して優れた能力を示すことを示している。
論文 参考訳(メタデータ) (2022-12-08T16:18:53Z) - Harmonizing the object recognition strategies of deep neural networks
with humans [10.495114898741205]
最先端のディープニューラルネットワーク(DNN)は、精度が向上するにつれて、人間との整合性が低下していることを示す。
我々の研究は、現在DNNの設計を導くスケーリング法則が、人間の視覚を悪化させるモデルを生み出した最初の例である。
論文 参考訳(メタデータ) (2022-11-08T20:03:49Z) - Explainability Tools Enabling Deep Learning in Future In-Situ Real-Time
Planetary Explorations [58.720142291102135]
ディープラーニング(DL)は、効果的な機械学習とコンピュータビジョン技術であることが証明されている。
ディープニューラルネットワーク(DNN)アーキテクチャのほとんどは複雑すぎて'ブラックボックス'と見なされている。
本稿では,各ニューロンの出力クラスへの属性を記述するために,積分勾配を用いた。
DNNのブラックボックスを開くための説明可能性ツールセット(ET)を提供するので、分類へのニューロンの個々の貢献をランク付けし視覚化することができる。
論文 参考訳(メタデータ) (2022-01-15T07:10:00Z) - Neuroevolution of a Recurrent Neural Network for Spatial and Working
Memory in a Simulated Robotic Environment [57.91534223695695]
我々は,ラットで観察される行動と神経活動を再現する進化的アルゴリズムを用いて,生物学的に有意なリカレントニューラルネットワーク(RNN)でウェイトを進化させた。
提案手法は, 進化したRNNの動的活動が, 興味深く複雑な認知行動をどのように捉えているかを示す。
論文 参考訳(メタデータ) (2021-02-25T02:13:52Z) - What Do Deep Nets Learn? Class-wise Patterns Revealed in the Input Space [88.37185513453758]
本研究では,深層ニューラルネットワーク(DNN)が学習するクラスワイズな知識を,異なる環境下で可視化し,理解する手法を提案する。
本手法は,各クラスのモデルが学習した知識を表現するために,画素空間内の1つの予測パターンを探索する。
逆境環境では、逆境に訓練されたモデルはより単純化された形状パターンを学ぶ傾向がある。
論文 参考訳(メタデータ) (2021-01-18T06:38:41Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z) - Architecture Disentanglement for Deep Neural Networks [174.16176919145377]
ディープニューラルネットワーク(DNN)の内部動作を説明するために,ニューラルアーキテクチャ・ディコンタングルメント(NAD)を導入する。
NADは、訓練済みのDNNを独立したタスクに従ってサブアーキテクチャに切り離すことを学び、推論プロセスを記述する情報フローを形成する。
その結果、誤分類された画像は、タスクサブアーキテクチャーに正しいサブアーキテクチャーに割り当てられる確率が高いことが示された。
論文 参考訳(メタデータ) (2020-03-30T08:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。