論文の概要: Learning Human Cognitive Appraisal Through Reinforcement Memory Unit
- arxiv url: http://arxiv.org/abs/2208.03473v1
- Date: Sat, 6 Aug 2022 08:56:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-09 12:14:17.078293
- Title: Learning Human Cognitive Appraisal Through Reinforcement Memory Unit
- Title(参考訳): 強化記憶ユニットによる認知的評価の学習
- Authors: Yaosi Hu and Zhenzhong Chen
- Abstract要約: 逐次評価タスクにおける人間の認知評価の効果を生かしたリカレントニューラルネットワークのためのメモリ強調機構を提案する。
記憶増強機構を2つの正および負の強化記憶とともに評価状態を含む強化記憶ユニット(RMU)として概念化する。
- 参考スコア(独自算出の注目度): 63.83306892013521
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel memory-enhancing mechanism for recurrent neural networks
that exploits the effect of human cognitive appraisal in sequential assessment
tasks. We conceptualize the memory-enhancing mechanism as Reinforcement Memory
Unit (RMU) that contains an appraisal state together with two positive and
negative reinforcement memories. The two reinforcement memories are decayed or
strengthened by stronger stimulus. Thereafter the appraisal state is updated
through the competition of positive and negative reinforcement memories.
Therefore, RMU can learn the appraisal variation under violent changing of the
stimuli for estimating human affective experience. As shown in the experiments
of video quality assessment and video quality of experience tasks, the proposed
reinforcement memory unit achieves superior performance among recurrent neural
networks, that demonstrates the effectiveness of RMU for modeling human
cognitive appraisal.
- Abstract(参考訳): 逐次的評価課題における人間の認知評価の効果を生かした,リカレントニューラルネットワークのための新しいメモリ強調機構を提案する。
記憶増強機構を2つの正および負の強化記憶とともに評価状態を含む強化記憶ユニット(RMU)として概念化する。
2つの強化記憶はより強い刺激によって減衰または強化される。
その後、正及び負の強化記憶の競合によって評価状態を更新する。
したがって、RMUは、人間の感情経験を推定するための刺激の激しい変化の下で、評価の変動を学習することができる。
ビデオ品質評価と体験タスクの映像品質評価実験で示すように、提案した強化記憶ユニットは、人間の認知評価をモデル化するためのRMUの有効性を示す。
関連論文リスト
- Brain-Like Replay Naturally Emerges in Reinforcement Learning Agents [4.603243771244471]
我々は、繰り返しニューラルネットワークに基づく強化学習モデルを用いて、タスク最適化パラダイムの下で自然に創発的なリプレイを発見する。
私たちの仕事は、リプレイの背後にあるメカニズムを理解するための新しい道を提供する。
論文 参考訳(メタデータ) (2024-02-02T14:55:51Z) - REBEL: A Regularization-Based Solution for Reward Overoptimization in
Reinforcement Learning from Human Feedback [61.54791065013767]
人間のフィードバック(RRLHF)からのロボット強化学習による報酬正規化のためのサンプル効率向上アルゴリズムREBELを提案する。
PEBBLEやPEBBLE+SURFのような最先端の手法と比較して,REBELは試料効率を最大70%向上し,十分な報酬率が得られることを示した。
論文 参考訳(メタデータ) (2023-12-22T04:56:37Z) - Estimating Personal Model Parameters from Utterances in Model-based
Reminiscence [0.0]
本研究は、思考合理的(ACT-R)の認知的アーキテクチャ適応制御に基づく、個人記憶の記憶再構成の計算モデルを利用した。
メモリモデルとの繰り返し相互作用によりユーザの内部状態を推定する手法を提案する。
結果は,ユーザの発話からモデルのメモリパラメータを推定する手法の有効性を確認した。
論文 参考訳(メタデータ) (2022-08-15T09:33:23Z) - Performance or Trust? Why Not Both. Deep AUC Maximization with
Self-Supervised Learning for COVID-19 Chest X-ray Classifications [72.52228843498193]
ディープラーニングモデルのトレーニングでは、パフォーマンスと信頼の間に妥協をしなければなりません。
本研究は、新型コロナウイルス患者のコンピュータ支援スクリーニングのための自己教師型学習と新しい代理損失を統合したものである。
論文 参考訳(メタデータ) (2021-12-14T21:16:52Z) - Learning Personal Representations from fMRIby Predicting Neurofeedback
Performance [52.77024349608834]
機能的MRI(fMRI)によって導かれる自己神経変調タスクを行う個人のための個人表現を学習するためのディープニューラルネットワーク手法を提案する。
この表現は、直近のfMRIフレームが与えられた次のfMRIフレームにおける扁桃体活動を予測する自己教師型リカレントニューラルネットワークによって学習され、学習された個々の表現に条件付けされる。
論文 参考訳(メタデータ) (2021-12-06T10:16:54Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - Association: Remind Your GAN not to Forget [11.653696510515807]
本稿では,連想学習過程を模倣して連続学習を実現する脳様アプローチを提案する。
画像から画像への翻訳作業における破滅的忘れを緩和する手法の有効性を実験により実証した。
論文 参考訳(メタデータ) (2020-11-27T04:43:15Z) - Fast & Slow Learning: Incorporating Synthetic Gradients in Neural Memory
Controllers [41.59845953349713]
我々は,NMNコントローラの学習プロセスを分離し,新しい情報が存在する場合に柔軟で迅速な適応を実現することを提案する。
この特徴は、メモリコントローラがターゲットドメインの抽象概念を素早く把握し、記憶された知識を適応しなければならないメタ学習タスクにおいて非常に有益である。
論文 参考訳(メタデータ) (2020-11-10T22:44:27Z) - Facial Feedback for Reinforcement Learning: A Case Study and Offline
Analysis Using the TAMER Framework [51.237191651923666]
訓練者の表情からエージェント学習の可能性について,評価フィードバックとして解釈することで検討した。
設計したCNN-RNNモデルを用いて,学習者に対して表情とコンペティションの使用を指示することで,肯定的および否定的なフィードバックを推定する精度を向上させることができることを示す。
シミュレーション実験の結果,表情に基づく予測フィードバックのみから学習できることが示唆された。
論文 参考訳(メタデータ) (2020-01-23T17:50:57Z) - Augmented Replay Memory in Reinforcement Learning With Continuous
Control [1.6752182911522522]
オンライン強化学習エージェントは、高次値関数に変換することで、現在、増大するデータを処理することができる。
この拡張によりエージェントの状態空間が増大し、より複雑な問題にスケールアップできるだけでなく、冗長なデータや矛盾するデータを学習することで忘れるリスクも増大する。
大量のデータの近似を改善するために、リプレイメモリバッファに格納された過去の経験のランダムなミニバッチを各学習ステップで頻繁に再生する。
論文 参考訳(メタデータ) (2019-12-29T20:07:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。