論文の概要: Learning Human Cognitive Appraisal Through Reinforcement Memory Unit
- arxiv url: http://arxiv.org/abs/2208.03473v1
- Date: Sat, 6 Aug 2022 08:56:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-09 12:14:17.078293
- Title: Learning Human Cognitive Appraisal Through Reinforcement Memory Unit
- Title(参考訳): 強化記憶ユニットによる認知的評価の学習
- Authors: Yaosi Hu and Zhenzhong Chen
- Abstract要約: 逐次評価タスクにおける人間の認知評価の効果を生かしたリカレントニューラルネットワークのためのメモリ強調機構を提案する。
記憶増強機構を2つの正および負の強化記憶とともに評価状態を含む強化記憶ユニット(RMU)として概念化する。
- 参考スコア(独自算出の注目度): 63.83306892013521
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel memory-enhancing mechanism for recurrent neural networks
that exploits the effect of human cognitive appraisal in sequential assessment
tasks. We conceptualize the memory-enhancing mechanism as Reinforcement Memory
Unit (RMU) that contains an appraisal state together with two positive and
negative reinforcement memories. The two reinforcement memories are decayed or
strengthened by stronger stimulus. Thereafter the appraisal state is updated
through the competition of positive and negative reinforcement memories.
Therefore, RMU can learn the appraisal variation under violent changing of the
stimuli for estimating human affective experience. As shown in the experiments
of video quality assessment and video quality of experience tasks, the proposed
reinforcement memory unit achieves superior performance among recurrent neural
networks, that demonstrates the effectiveness of RMU for modeling human
cognitive appraisal.
- Abstract(参考訳): 逐次的評価課題における人間の認知評価の効果を生かした,リカレントニューラルネットワークのための新しいメモリ強調機構を提案する。
記憶増強機構を2つの正および負の強化記憶とともに評価状態を含む強化記憶ユニット(RMU)として概念化する。
2つの強化記憶はより強い刺激によって減衰または強化される。
その後、正及び負の強化記憶の競合によって評価状態を更新する。
したがって、RMUは、人間の感情経験を推定するための刺激の激しい変化の下で、評価の変動を学習することができる。
ビデオ品質評価と体験タスクの映像品質評価実験で示すように、提案した強化記憶ユニットは、人間の認知評価をモデル化するためのRMUの有効性を示す。
関連論文リスト
- Multi-Modal Self-Supervised Learning for Surgical Feedback Effectiveness Assessment [66.6041949490137]
そこで本研究では,音声による音声入力とそれに対応する手術映像からの情報を統合して,フィードバックの有効性を予測する手法を提案する。
以上の結果から,手書きフィードバックと手術映像の両方が,訓練者の行動変化を個別に予測できることがわかった。
本研究は,手術フィードバックの自動評価を推進するためのマルチモーダル学習の可能性を示すものである。
論文 参考訳(メタデータ) (2024-11-17T00:13:00Z) - Stable Hadamard Memory: Revitalizing Memory-Augmented Agents for Reinforcement Learning [64.93848182403116]
現在のディープラーニングメモリモデルは、部分的に観察可能で長期にわたる強化学習環境で苦労している。
本稿では,強化学習エージェントのための新しい記憶モデルであるStable Hadamard Memoryを紹介する。
我々の手法は、部分的に観測可能なベンチマークに挑戦する上で、最先端のメモリベースの手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-10-14T03:50:17Z) - MADial-Bench: Towards Real-world Evaluation of Memory-Augmented Dialogue Generation [15.64077949677469]
メモリ拡張対話システム(MADS)の有効性を評価するための新しいメモリ拡張対話ベンチマーク(MADail-Bench)を提案する。
このベンチマークは2つのタスクを別々に評価する: メモリ検索とメモリ認識は、パッシブとプロアクティブの両方のメモリリコールデータを組み込んだものである。
このベンチマークにおける最先端の埋め込みモデルと大規模言語モデルの結果は、さらなる進歩の可能性を示している。
論文 参考訳(メタデータ) (2024-09-23T17:38:41Z) - Brain-Inspired Continual Learning-Robust Feature Distillation and Re-Consolidation for Class Incremental Learning [0.0]
本稿では, 特徴蒸留と再固化という2つの基本概念からなる新しい枠組みを提案する。
ロバスト・リハーサル(Robust Rehearsal)と名付けられた我々のフレームワークは、継続的な学習システムに固有の破滅的な忘れ込みの課題に対処する。
CIFAR10、CIFAR100、実世界のヘリコプター姿勢データセットで実施された実験は、ロバスト・リハーサルで訓練されたCLモデルの優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-22T21:30:11Z) - Estimating Personal Model Parameters from Utterances in Model-based
Reminiscence [0.0]
本研究は、思考合理的(ACT-R)の認知的アーキテクチャ適応制御に基づく、個人記憶の記憶再構成の計算モデルを利用した。
メモリモデルとの繰り返し相互作用によりユーザの内部状態を推定する手法を提案する。
結果は,ユーザの発話からモデルのメモリパラメータを推定する手法の有効性を確認した。
論文 参考訳(メタデータ) (2022-08-15T09:33:23Z) - Performance or Trust? Why Not Both. Deep AUC Maximization with
Self-Supervised Learning for COVID-19 Chest X-ray Classifications [72.52228843498193]
ディープラーニングモデルのトレーニングでは、パフォーマンスと信頼の間に妥協をしなければなりません。
本研究は、新型コロナウイルス患者のコンピュータ支援スクリーニングのための自己教師型学習と新しい代理損失を統合したものである。
論文 参考訳(メタデータ) (2021-12-14T21:16:52Z) - Learning Personal Representations from fMRIby Predicting Neurofeedback
Performance [52.77024349608834]
機能的MRI(fMRI)によって導かれる自己神経変調タスクを行う個人のための個人表現を学習するためのディープニューラルネットワーク手法を提案する。
この表現は、直近のfMRIフレームが与えられた次のfMRIフレームにおける扁桃体活動を予測する自己教師型リカレントニューラルネットワークによって学習され、学習された個々の表現に条件付けされる。
論文 参考訳(メタデータ) (2021-12-06T10:16:54Z) - Association: Remind Your GAN not to Forget [11.653696510515807]
本稿では,連想学習過程を模倣して連続学習を実現する脳様アプローチを提案する。
画像から画像への翻訳作業における破滅的忘れを緩和する手法の有効性を実験により実証した。
論文 参考訳(メタデータ) (2020-11-27T04:43:15Z) - Facial Feedback for Reinforcement Learning: A Case Study and Offline
Analysis Using the TAMER Framework [51.237191651923666]
訓練者の表情からエージェント学習の可能性について,評価フィードバックとして解釈することで検討した。
設計したCNN-RNNモデルを用いて,学習者に対して表情とコンペティションの使用を指示することで,肯定的および否定的なフィードバックを推定する精度を向上させることができることを示す。
シミュレーション実験の結果,表情に基づく予測フィードバックのみから学習できることが示唆された。
論文 参考訳(メタデータ) (2020-01-23T17:50:57Z) - Augmented Replay Memory in Reinforcement Learning With Continuous
Control [1.6752182911522522]
オンライン強化学習エージェントは、高次値関数に変換することで、現在、増大するデータを処理することができる。
この拡張によりエージェントの状態空間が増大し、より複雑な問題にスケールアップできるだけでなく、冗長なデータや矛盾するデータを学習することで忘れるリスクも増大する。
大量のデータの近似を改善するために、リプレイメモリバッファに格納された過去の経験のランダムなミニバッチを各学習ステップで頻繁に再生する。
論文 参考訳(メタデータ) (2019-12-29T20:07:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。