論文の概要: End-to-end Deep Prototype and Exemplar Models for Predicting Human
Behavior
- arxiv url: http://arxiv.org/abs/2007.08723v1
- Date: Fri, 17 Jul 2020 02:32:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 13:59:35.956490
- Title: End-to-end Deep Prototype and Exemplar Models for Predicting Human
Behavior
- Title(参考訳): エンド・ツー・エンドのDeep PrototypeおよびExemplar Modelによる人間の行動予測
- Authors: Pulkit Singh, Joshua C. Peterson, Ruairidh M. Battleday, Thomas L.
Griffiths
- Abstract要約: 我々は古典的なプロトタイプと模範モデルを拡張し、生入力から刺激とカテゴリー表現を併用して学習する。
この新しいモデルのクラスは、ディープニューラルネットワーク(DNN)とトレーニングされたエンドツーエンドによってパラメータ化できる。
典型的なDNNと比較して、認知にインスパイアされた両者が、人間の行動により良い本質的な適応と、地道的分類の改善をもたらすことがわかった。
- 参考スコア(独自算出の注目度): 10.361297404586033
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional models of category learning in psychology focus on representation
at the category level as opposed to the stimulus level, even though the two are
likely to interact. The stimulus representations employed in such models are
either hand-designed by the experimenter, inferred circuitously from human
judgments, or borrowed from pretrained deep neural networks that are themselves
competing models of category learning. In this work, we extend classic
prototype and exemplar models to learn both stimulus and category
representations jointly from raw input. This new class of models can be
parameterized by deep neural networks (DNN) and trained end-to-end. Following
their namesakes, we refer to them as Deep Prototype Models, Deep Exemplar
Models, and Deep Gaussian Mixture Models. Compared to typical DNNs, we find
that their cognitively inspired counterparts both provide better intrinsic fit
to human behavior and improve ground-truth classification.
- Abstract(参考訳): 心理学におけるカテゴリー学習の伝統的なモデルは、刺激レベルとは対照的にカテゴリーレベルでの表現に焦点を当てている。
このようなモデルで使用される刺激表現は、実験者によって手作業で設計され、人間の判断から回路的に推論されるか、あるいはカテゴリ学習の競合モデルである事前訓練されたディープニューラルネットワークから借用される。
本研究では,古典的プロトタイプと模範モデルを拡張し,刺激とカテゴリー表現を生入力から併用して学習する。
この新しいモデルのクラスは、ディープニューラルネットワーク(DNN)とトレーニングされたエンドツーエンドによってパラメータ化できる。
それらの名前に倣って、Deep Prototype Models、Deep Exemplar Models、Deep Gaussian Mixture Modelsと呼ぶ。
典型的なDNNと比較して、認知にインスパイアされた両者が、人間の行動により良い本質的な適応と、地道的分類の改善をもたらすことがわかった。
関連論文リスト
- Deep Generative Models in Robotics: A Survey on Learning from Multimodal Demonstrations [52.11801730860999]
近年、ロボット学習コミュニティは、大規模なデータセットの複雑さを捉えるために、深層生成モデルを使うことへの関心が高まっている。
本稿では,エネルギーベースモデル,拡散モデル,アクションバリューマップ,生成的敵ネットワークなど,コミュニティが探求してきたさまざまなモデルについて述べる。
また,情報生成から軌道生成,コスト学習に至るまで,深層生成モデルを用いた様々なアプリケーションについて述べる。
論文 参考訳(メタデータ) (2024-08-08T11:34:31Z) - MENTOR: Human Perception-Guided Pretraining for Increased Generalization [5.596752018167751]
MENTOR (huMan pErceptioN-guided preTraining fOr increased geneRalization) を紹介する。
我々は、クラスラベルを使わずに、入力された画像からヒトの唾液マップを学習するためにオートエンコーダを訓練する。
我々は、デコーダ部分を取り除き、エンコーダの上に分類層を追加し、従来の新しいモデルを微調整する。
論文 参考訳(メタデータ) (2023-10-30T13:50:44Z) - Evaluating alignment between humans and neural network representations in image-based learning tasks [5.657101730705275]
トレーニング済みの860ドルのニューラルネットワークモデルの表現が、人間の学習軌跡にどのようにマッピングされているかテストしました。
トレーニングデータセットのサイズは人間の選択に沿った中核的な決定要因であるのに対し、マルチモーダルデータ(テキストと画像)による対照的なトレーニングは、人間の一般化を予測するために現在公開されているモデルの一般的な特徴であることがわかった。
結論として、事前訓練されたニューラルネットワークは、タスク間で伝達可能な認知の基本的な側面を捉えているように見えるため、認知モデルのための表現を抽出するのに役立つ。
論文 参考訳(メタデータ) (2023-06-15T08:18:29Z) - Distinguishing representational geometries with controversial stimuli:
Bayesian experimental design and its application to face dissimilarity
judgments [0.5735035463793008]
3次元顔モデルグラフィックスを逆転するように訓練されたニューラルネットワークは、識別、分類、あるいはオートエンコーディングで訓練されたのと同じアーキテクチャよりも、よりヒューマンアライメントであることを示す。
以上の結果から,3次元顔モデルグラフィックスを逆転するように訓練されたニューラルネットワークは,識別,分類,自動エンコーディングを訓練したのと同じアーキテクチャよりも,より人間らしくなっていることが示唆された。
論文 参考訳(メタデータ) (2022-11-28T04:17:35Z) - Reconciliation of Pre-trained Models and Prototypical Neural Networks in
Few-shot Named Entity Recognition [35.34238362639678]
本研究では,このようなミスマッチを経験的・理論的根拠と整合させる一線符号正規化法を提案する。
我々の研究は、数発のエンティティ認識における一般的な問題に対処するための分析的な視点も提供します。
論文 参考訳(メタデータ) (2022-11-07T02:33:45Z) - Are Neural Topic Models Broken? [81.15470302729638]
トピックモデルの自動評価と人的評価の関係について検討する。
ニューラルトピックモデルは、確立された古典的手法と比較して、両方の点においてより悪くなる。
論文 参考訳(メタデータ) (2022-10-28T14:38:50Z) - Dynamically-Scaled Deep Canonical Correlation Analysis [77.34726150561087]
カノニカル相関解析 (CCA) は, 2つのビューの特徴抽出手法である。
本稿では,入力依存の正準相関モデルをトレーニングするための新しい動的スケーリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-23T12:52:49Z) - Is Automated Topic Model Evaluation Broken?: The Incoherence of
Coherence [62.826466543958624]
トピックモデル評価における標準化のギャップと検証のギャップについて考察する。
これらの指標によると、最近のニューラルネットワークコンポーネントに依存したモデルは、古典的なトピックモデルを超えている。
我々は,話題評価と単語侵入という,最も広く受け入れられている2つの人間の判断タスクとともに,自動的コヒーレンスを用いる。
論文 参考訳(メタデータ) (2021-07-05T17:58:52Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - On the Evolution of Neuron Communities in a Deep Learning Architecture [0.7106986689736827]
本稿では,ディープラーニングに基づく分類モデルのニューロン活性化パターンについて検討する。
コミュニティの品質(モジュラリティ)とエントロピーの両方が、ディープラーニングモデルのパフォーマンスと密接に関連していることを示す。
論文 参考訳(メタデータ) (2021-06-08T21:09:55Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。