論文の概要: End-to-end Deep Prototype and Exemplar Models for Predicting Human
Behavior
- arxiv url: http://arxiv.org/abs/2007.08723v1
- Date: Fri, 17 Jul 2020 02:32:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 13:59:35.956490
- Title: End-to-end Deep Prototype and Exemplar Models for Predicting Human
Behavior
- Title(参考訳): エンド・ツー・エンドのDeep PrototypeおよびExemplar Modelによる人間の行動予測
- Authors: Pulkit Singh, Joshua C. Peterson, Ruairidh M. Battleday, Thomas L.
Griffiths
- Abstract要約: 我々は古典的なプロトタイプと模範モデルを拡張し、生入力から刺激とカテゴリー表現を併用して学習する。
この新しいモデルのクラスは、ディープニューラルネットワーク(DNN)とトレーニングされたエンドツーエンドによってパラメータ化できる。
典型的なDNNと比較して、認知にインスパイアされた両者が、人間の行動により良い本質的な適応と、地道的分類の改善をもたらすことがわかった。
- 参考スコア(独自算出の注目度): 10.361297404586033
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional models of category learning in psychology focus on representation
at the category level as opposed to the stimulus level, even though the two are
likely to interact. The stimulus representations employed in such models are
either hand-designed by the experimenter, inferred circuitously from human
judgments, or borrowed from pretrained deep neural networks that are themselves
competing models of category learning. In this work, we extend classic
prototype and exemplar models to learn both stimulus and category
representations jointly from raw input. This new class of models can be
parameterized by deep neural networks (DNN) and trained end-to-end. Following
their namesakes, we refer to them as Deep Prototype Models, Deep Exemplar
Models, and Deep Gaussian Mixture Models. Compared to typical DNNs, we find
that their cognitively inspired counterparts both provide better intrinsic fit
to human behavior and improve ground-truth classification.
- Abstract(参考訳): 心理学におけるカテゴリー学習の伝統的なモデルは、刺激レベルとは対照的にカテゴリーレベルでの表現に焦点を当てている。
このようなモデルで使用される刺激表現は、実験者によって手作業で設計され、人間の判断から回路的に推論されるか、あるいはカテゴリ学習の競合モデルである事前訓練されたディープニューラルネットワークから借用される。
本研究では,古典的プロトタイプと模範モデルを拡張し,刺激とカテゴリー表現を生入力から併用して学習する。
この新しいモデルのクラスは、ディープニューラルネットワーク(DNN)とトレーニングされたエンドツーエンドによってパラメータ化できる。
それらの名前に倣って、Deep Prototype Models、Deep Exemplar Models、Deep Gaussian Mixture Modelsと呼ぶ。
典型的なDNNと比較して、認知にインスパイアされた両者が、人間の行動により良い本質的な適応と、地道的分類の改善をもたらすことがわかった。
関連論文リスト
- MENTOR: Human Perception-Guided Pretraining for Increased Generalization [5.596752018167751]
MENTOR (huMan pErceptioN-guided preTraining fOr increased geneRalization) を紹介する。
我々は、クラスラベルを使わずに、入力された画像からヒトの唾液マップを学習するためにオートエンコーダを訓練する。
我々は、デコーダ部分を取り除き、エンコーダの上に分類層を追加し、従来の新しいモデルを微調整する。
論文 参考訳(メタデータ) (2023-10-30T13:50:44Z) - Distinguishing representational geometries with controversial stimuli:
Bayesian experimental design and its application to face dissimilarity
judgments [0.5735035463793008]
3次元顔モデルグラフィックスを逆転するように訓練されたニューラルネットワークは、識別、分類、あるいはオートエンコーディングで訓練されたのと同じアーキテクチャよりも、よりヒューマンアライメントであることを示す。
以上の結果から,3次元顔モデルグラフィックスを逆転するように訓練されたニューラルネットワークは,識別,分類,自動エンコーディングを訓練したのと同じアーキテクチャよりも,より人間らしくなっていることが示唆された。
論文 参考訳(メタデータ) (2022-11-28T04:17:35Z) - Reconciliation of Pre-trained Models and Prototypical Neural Networks in
Few-shot Named Entity Recognition [35.34238362639678]
本研究では,このようなミスマッチを経験的・理論的根拠と整合させる一線符号正規化法を提案する。
我々の研究は、数発のエンティティ認識における一般的な問題に対処するための分析的な視点も提供します。
論文 参考訳(メタデータ) (2022-11-07T02:33:45Z) - Are Neural Topic Models Broken? [81.15470302729638]
トピックモデルの自動評価と人的評価の関係について検討する。
ニューラルトピックモデルは、確立された古典的手法と比較して、両方の点においてより悪くなる。
論文 参考訳(メタデータ) (2022-10-28T14:38:50Z) - Dynamically-Scaled Deep Canonical Correlation Analysis [77.34726150561087]
カノニカル相関解析 (CCA) は, 2つのビューの特徴抽出手法である。
本稿では,入力依存の正準相関モデルをトレーニングするための新しい動的スケーリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-23T12:52:49Z) - STAR: Sparse Transformer-based Action Recognition [61.490243467748314]
本研究は,空間的次元と時間的次元に細かな注意を払っている新しいスケルトンに基づく人間行動認識モデルを提案する。
実験により、トレーニング可能なパラメータをはるかに少なくし、トレーニングや推論の高速化を図りながら、モデルが同等のパフォーマンスを達成できることが示されている。
論文 参考訳(メタデータ) (2021-07-15T02:53:11Z) - Is Automated Topic Model Evaluation Broken?: The Incoherence of
Coherence [62.826466543958624]
トピックモデル評価における標準化のギャップと検証のギャップについて考察する。
これらの指標によると、最近のニューラルネットワークコンポーネントに依存したモデルは、古典的なトピックモデルを超えている。
我々は,話題評価と単語侵入という,最も広く受け入れられている2つの人間の判断タスクとともに,自動的コヒーレンスを用いる。
論文 参考訳(メタデータ) (2021-07-05T17:58:52Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - On the Evolution of Neuron Communities in a Deep Learning Architecture [0.7106986689736827]
本稿では,ディープラーニングに基づく分類モデルのニューロン活性化パターンについて検討する。
コミュニティの品質(モジュラリティ)とエントロピーの両方が、ディープラーニングモデルのパフォーマンスと密接に関連していることを示す。
論文 参考訳(メタデータ) (2021-06-08T21:09:55Z) - Human-Understandable Decision Making for Visual Recognition [30.30163407674527]
モデル学習プロセスに人間の知覚の優先順位を組み込むことにより,深層ニューラルネットワークを訓練する新たなフレームワークを提案する。
提案モデルの有効性を2つの古典的視覚認識タスクで評価する。
論文 参考訳(メタデータ) (2021-03-05T02:07:33Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。