論文の概要: RTify: Aligning Deep Neural Networks with Human Behavioral Decisions
- arxiv url: http://arxiv.org/abs/2411.03630v1
- Date: Wed, 06 Nov 2024 03:04:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-07 19:22:53.164131
- Title: RTify: Aligning Deep Neural Networks with Human Behavioral Decisions
- Title(参考訳): RTify:人間の行動決定を伴うディープニューラルネットワークの調整
- Authors: Yu-Ang Cheng, Ivan Felipe Rodriguez, Sixuan Chen, Kohitij Kar, Takeo Watanabe, Thomas Serre,
- Abstract要約: 霊長類視覚の現在のニューラルネットワークモデルは、行動精度の全体的なレベルを複製することに焦点を当てている。
我々は、リカレントニューラルネットワークの時間的ダイナミクスを人間の反応時間(RT)に合わせることを学ぶことによって、人間の行動選択のダイナミクスをモデル化する新しい計算フレームワークを導入する。
本稿では,この近似を用いて「理想オブザーバ」RNNモデルを最適化し,人間データなしで速度と精度の最適なトレードオフを実現できることを示す。
- 参考スコア(独自算出の注目度): 10.510746720313303
- License:
- Abstract: Current neural network models of primate vision focus on replicating overall levels of behavioral accuracy, often neglecting perceptual decisions' rich, dynamic nature. Here, we introduce a novel computational framework to model the dynamics of human behavioral choices by learning to align the temporal dynamics of a recurrent neural network (RNN) to human reaction times (RTs). We describe an approximation that allows us to constrain the number of time steps an RNN takes to solve a task with human RTs. The approach is extensively evaluated against various psychophysics experiments. We also show that the approximation can be used to optimize an "ideal-observer" RNN model to achieve an optimal tradeoff between speed and accuracy without human data. The resulting model is found to account well for human RT data. Finally, we use the approximation to train a deep learning implementation of the popular Wong-Wang decision-making model. The model is integrated with a convolutional neural network (CNN) model of visual processing and evaluated using both artificial and natural image stimuli. Overall, we present a novel framework that helps align current vision models with human behavior, bringing us closer to an integrated model of human vision.
- Abstract(参考訳): 霊長類視覚の現在のニューラルネットワークモデルは、行動的正確性の全体的なレベルを複製することに焦点を当てており、知覚的決定のリッチで動的な性質を無視していることが多い。
本稿では、リカレントニューラルネットワーク(RNN)の時間的ダイナミクスを人間の反応時間(RT)に整合させることで、人間の行動選択のダイナミクスをモデル化する新しい計算フレームワークを提案する。
RNNが人間のRTでタスクを解くのに要する時間ステップの数を制限できる近似を記述する。
このアプローチは様々な心理物理学実験に対して広く評価されている。
また、この近似を用いて「理想的なオブザーバ」RNNモデルを最適化し、人間のデータ無しで速度と精度の最適なトレードオフを実現できることを示す。
得られたモデルは、ヒトのRTデータについてよく説明できる。
最後に,この近似を用いて,人気の高いWong-Wang意思決定モデルのディープラーニング実装を訓練する。
このモデルは、視覚処理の畳み込みニューラルネットワーク(CNN)モデルと統合され、人工と自然の両方のイメージ刺激を用いて評価される。
全体として、現在の視覚モデルと人間の行動の整合化を支援する新しいフレームワークを提案し、人間の視覚の統合モデルに近づいた。
関連論文リスト
- Neural Dynamics Model of Visual Decision-Making: Learning from Human Experts [28.340344705437758]
視覚入力から行動出力まで,包括的な視覚的意思決定モデルを実装した。
我々のモデルは人間の行動と密接に一致し、霊長類の神経活動を反映する。
ニューロイメージング・インフォームド・ファインチューニング手法を導入し、モデルに適用し、性能改善を実現した。
論文 参考訳(メタデータ) (2024-09-04T02:38:52Z) - Inferring stochastic low-rank recurrent neural networks from neural data [5.179844449042386]
計算神経科学における中心的な目的は、大きなニューロンの活動と基礎となる力学系を関連付けることである。
低ランクリカレントニューラルネットワーク(RNN)は、トラクタブルダイナミクスを持つことによって、そのような解釈可能性を示す。
そこで本研究では,低ランクRNNをモンテカルロ変分法に適合させる手法を提案する。
論文 参考訳(メタデータ) (2024-06-24T15:57:49Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - On the Trade-off Between Efficiency and Precision of Neural Abstraction [62.046646433536104]
ニューラル抽象化は、最近、複雑な非線形力学モデルの形式近似として導入されている。
我々は形式的帰納的合成法を用いて、これらのセマンティクスを用いた動的モデルをもたらすニューラル抽象化を生成する。
論文 参考訳(メタデータ) (2023-07-28T13:22:32Z) - Using Features at Multiple Temporal and Spatial Resolutions to Predict
Human Behavior in Real Time [2.955419572714387]
本研究では,高分解能・低分解能な空間情報と時間情報を統合し,人間の行動をリアルタイムで予測する手法を提案する。
本モデルでは,3つのネットワークが同時にトレーニングされた動作予測のためのニューラルネットワークを用いて,高分解能・低分解能特徴抽出のためのニューラルネットワークを構成する。
論文 参考訳(メタデータ) (2022-11-12T18:41:33Z) - STNDT: Modeling Neural Population Activity with a Spatiotemporal
Transformer [19.329190789275565]
我々は、個々のニューロンの応答を明示的にモデル化するNDTベースのアーキテクチャであるSpatioTemporal Neural Data Transformer (STNDT)を紹介する。
本モデルは,4つのニューラルデータセット間での神経活動の推定において,アンサンブルレベルでの最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2022-06-09T18:54:23Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - Stochastic Recurrent Neural Network for Multistep Time Series
Forecasting [0.0]
我々は、時系列予測のための繰り返しニューラルネットワークの適応を提案するために、深部生成モデルと状態空間モデルの概念の進歩を活用する。
私たちのモデルは、すべての関連情報が隠された状態でカプセル化されるリカレントニューラルネットワークのアーキテクチャ的な動作を保ち、この柔軟性により、モデルはシーケンシャルモデリングのために任意のディープアーキテクチャに簡単に統合できます。
論文 参考訳(メタデータ) (2021-04-26T01:43:43Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。