論文の概要: Appraisal-Guided Proximal Policy Optimization: Modeling Psychological Disorders in Dynamic Grid World
- arxiv url: http://arxiv.org/abs/2407.20383v1
- Date: Mon, 29 Jul 2024 19:19:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-31 18:58:28.601576
- Title: Appraisal-Guided Proximal Policy Optimization: Modeling Psychological Disorders in Dynamic Grid World
- Title(参考訳): 評価誘導型近親政策最適化:動的グリッド世界における心理学的障害のモデル化
- Authors: Hari Prasad, Chinnu Jacob, Imthias Ahamed T. P,
- Abstract要約: 強化学習(RL)エージェントを用いた心理障害のモデル化手法を開発した。
心理障害をシミュレートし,エージェントの行動を制御するための報酬形成戦略を多数検討した。
修正されたPPOアルゴリズムの様々な構成の比較により、不安障害とOCD(Obsessive-Compulsive Disorder)のようなエージェントの振る舞いをシミュレートする変異が同定された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The integration of artificial intelligence across multiple domains has emphasized the importance of replicating human-like cognitive processes in AI. By incorporating emotional intelligence into AI agents, their emotional stability can be evaluated to enhance their resilience and dependability in critical decision-making tasks. In this work, we develop a methodology for modeling psychological disorders using Reinforcement Learning (RL) agents. We utilized Appraisal theory to train RL agents in a dynamic grid world environment with an Appraisal-Guided Proximal Policy Optimization (AG-PPO) algorithm. Additionally, we investigated numerous reward-shaping strategies to simulate psychological disorders and regulate the behavior of the agents. A comparison of various configurations of the modified PPO algorithm identified variants that simulate Anxiety disorder and Obsessive-Compulsive Disorder (OCD)-like behavior in agents. Furthermore, we compared standard PPO with AG-PPO and its configurations, highlighting the performance improvement in terms of generalization capabilities. Finally, we conducted an analysis of the agents' behavioral patterns in complex test environments to evaluate the associated symptoms corresponding to the psychological disorders. Overall, our work showcases the benefits of the appraisal-guided PPO algorithm over the standard PPO algorithm and the potential to simulate psychological disorders in a controlled artificial environment and evaluate them on RL agents.
- Abstract(参考訳): 複数のドメインにまたがる人工知能の統合は、AIにおける人間のような認知プロセスを複製することの重要性を強調している。
感情的な知性をAIエージェントに組み込むことで、その感情的な安定性を評価し、重要な意思決定タスクにおけるレジリエンスと信頼性を高めることができる。
本研究では,Reinforcement Learning (RL) エージェントを用いた心理的障害のモデル化手法を開発する。
我々は評価理論を利用して,動的グリッド環境におけるRLエージェントの訓練にAG-PPOアルゴリズムを用いた。
さらに,心理学的障害をシミュレートし,エージェントの行動を制御するための報酬形成戦略を多数検討した。
修正されたPPOアルゴリズムの様々な構成の比較により、不安障害とOCD(Obsessive-Compulsive Disorder)のようなエージェントの振る舞いをシミュレートする変異が同定された。
さらに、標準的なPPOとAG-PPOとその構成を比較し、一般化機能の観点から性能改善を強調した。
最後に, 複雑なテスト環境下でのエージェントの行動パターンの分析を行い, 精神障害に関連する症状について検討した。
本研究は,標準的なPPOアルゴリズムに対する評価誘導PPOアルゴリズムの利点と,制御された人工環境における心理的障害をシミュレートし,RLエージェント上で評価する可能性を示す。
関連論文リスト
- PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Efficient Adaptation in Mixed-Motive Environments via Hierarchical Opponent Modeling and Planning [51.52387511006586]
本稿では,HOP(Hierarchical Opponent Modeling and Planning)を提案する。
HOPは階層的に2つのモジュールから構成される: 相手の目標を推論し、対応する目標条件のポリシーを学ぶ、反対モデリングモジュール。
HOPは、さまざまな未確認エージェントと相互作用する際、優れた少数ショット適応能力を示し、セルフプレイのシナリオで優れている。
論文 参考訳(メタデータ) (2024-06-12T08:48:06Z) - Towards a Psychological Generalist AI: A Survey of Current Applications
of Large Language Models and Future Prospects [19.46832545633166]
本稿では,大規模AIモデルの性能検証の重要性を強調する。
心理学におけるこれらの拡張モデルの最先端の進歩と実践的実装を概観する。
これらの未来のジェネラリストAIモデルは、労働コストを大幅に削減し、社会的ストレスを軽減する可能性を秘めている。
論文 参考訳(メタデータ) (2023-12-01T08:35:18Z) - Adaptive Multi-Agent Deep Reinforcement Learning for Timely Healthcare Interventions [17.405080523382235]
マルチエージェント深部強化学習(DRL)を用いた新しいAI駆動型患者監視フレームワークを提案する。
アプローチでは複数の学習エージェントをデプロイし,心拍数,呼吸量,温度などの生理的特徴をモニタする。
提案する多エージェントDRLフレームワークの性能を,2つのデータセットから実世界の生理・運動データを用いて評価した。
論文 参考訳(メタデータ) (2023-09-20T00:42:08Z) - Understanding Emergent Behaviours in Multi-Agent Systems with
Evolutionary Game Theory [1.0279748604797907]
本稿では,EGT と ABM の手法を用いて,本グループにおける主な研究方針と課題について要約する。
このブリーフィングは、読者をEGTに基づく問題、結果、展望に敏感にすることを目的としており、機械による心のモデリングにおいて重要である。
いずれの場合も,MAS研究において,グループによって優先される,あるいは優先される重要なオープンな問題について述べる。
論文 参考訳(メタデータ) (2022-05-15T20:01:48Z) - POETREE: Interpretable Policy Learning with Adaptive Decision Trees [78.6363825307044]
POETREEは、ポリシー学習を解釈するための新しいフレームワークである。
患者の観察と医療史に基づいて、医師の行動を決定する確率的ツリーポリシーを構築する。
これは、リアルおよび合成医療データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2022-03-15T16:50:52Z) - Model-based Multi-agent Policy Optimization with Adaptive Opponent-wise
Rollouts [52.844741540236285]
マルチエージェント強化学習(MARL)におけるモデルベース手法について検討する。
AORPO(Adaptive Opponent-wise Rollout Policy)と呼ばれる新しい分散型モデルベースのMARL法を提案する。
論文 参考訳(メタデータ) (2021-05-07T16:20:22Z) - AI-Augmented Behavior Analysis for Children with Developmental
Disabilities: Building Towards Precision Treatment [2.0324247356209835]
AI-Augmented Learning and Applied Behavior Analytics(AI-ABA)プラットフォームを提供し、パーソナライズされた治療と学習計画を提供します。
自動データ収集と分析とともに体系的な実験を定義することで、AI-ABAは自己規制的行動を促進することができる。
論文 参考訳(メタデータ) (2021-02-21T16:15:40Z) - Unified Models of Human Behavioral Agents in Bandits, Contextual Bandits
and RL [28.38826379640553]
逐次的意思決定のためのより汎用的で柔軟なパラメトリック・フレームワークを提案する。
多くの精神疾患の既往の報酬処理異常にインスパイアされ、臨床にインスパイアされたエージェントは興味深い行動軌跡を示した。
論文 参考訳(メタデータ) (2020-05-10T01:43:39Z) - Robust Deep Reinforcement Learning against Adversarial Perturbations on
State Observations [88.94162416324505]
深部強化学習(DRL)エージェントは、自然な測定誤差や対向雑音を含む観測を通して、その状態を観察する。
観測は真の状態から逸脱するので、エージェントを誤解させ、準最適行動を起こすことができる。
本研究は, 従来の手法を, 対人訓練などの分類タスクの堅牢性向上に応用することは, 多くのRLタスクには有効でないことを示す。
論文 参考訳(メタデータ) (2020-03-19T17:59:59Z) - Decentralized MCTS via Learned Teammate Models [89.24858306636816]
本稿では,モンテカルロ木探索に基づくトレーニング可能なオンライン分散計画アルゴリズムを提案する。
深層学習と畳み込みニューラルネットワークを用いて正確なポリシー近似を作成可能であることを示す。
論文 参考訳(メタデータ) (2020-03-19T13:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。