論文の概要: Towards Emotionally Intelligent and Responsible Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2511.10573v1
- Date: Fri, 14 Nov 2025 01:58:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.937519
- Title: Towards Emotionally Intelligent and Responsible Reinforcement Learning
- Title(参考訳): 感情に敏感で責任のある強化学習を目指して
- Authors: Garapati Keerthana, Manik Gupta,
- Abstract要約: 本稿では,感情的・文脈的理解と倫理的考察を統合したレスポンシブル強化学習フレームワークを提案する。
本稿では,短期的行動参加と長期的ユーザの幸福感のバランスをとる多目的報酬関数を提案する。
本稿では, 行動保健, 教育, デジタル治療など人間中心の領域におけるこのアプローチの意義について論じる。
- 参考スコア(独自算出の注目度): 0.40719854602160227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized decision systems in healthcare and behavioral support often rely on static rule-based or engagement-maximizing heuristics that overlook users' emotional context and ethical constraints. Such approaches risk recommending insensitive or unsafe interventions, especially in domains involving serious mental illness, substance use disorders, or depression. To address this limitation, we propose a Responsible Reinforcement Learning (RRL) framework that integrates emotional and contextual understanding with ethical considerations into the sequential decision-making process. RRL formulates personalization as a Constrained Markov Decision Process (CMDP), where the agent optimizes engagement and adherence while ensuring emotional alignment and ethical safety. We introduce a multi-objective reward function that explicitly balances short-term behavioral engagement with long-term user well-being, and define an emotion-informed state representation that captures fluctuations in emotional readiness, affect, and risk. The proposed architecture can be instantiated with any RL algorithm (e.g., DQN, PPO) augmented with safety constraints or Lagrangian regularization. Conceptually, this framework operationalizes empathy and responsibility within machine learning policy optimization, bridging safe RL, affective computing and responsible AI. We discuss the implications of this approach for human-centric domains such as behavioral health, education, and digital therapeutics, and outline simulation-based validation paths for future empirical work. This paper aims to initiate a methodological conversation about ethically aligned reinforcement learning for emotionally aware and trustworthy personalization systems.
- Abstract(参考訳): 医療と行動支援におけるパーソナライズされた意思決定システムは、しばしば、ユーザの感情的文脈や倫理的制約を無視する静的なルールベースまたはエンゲージメントを最大化するヒューリスティックに依存している。
このようなアプローチは、特に重篤な精神疾患、物質使用障害、うつ病を含む領域において、非感受性または安全でない介入を推奨するリスクがある。
この制限に対処するために,情緒的・文脈的理解と倫理的考察を統合したレスポンシブル強化学習(RRL)フレームワークを提案する。
RRLは、制限されたマルコフ決定プロセス(CMDP)としてパーソナライゼーションを定式化し、エージェントは感情的アライメントと倫理的安全性を確保しながら、エンゲージメントと定着を最適化する。
本研究では,短期的行動と長期的ユーザの幸福感を明確にバランスさせる多目的報酬関数を導入し,情緒的準備,情緒的影響,リスクの変動を捉えた情緒的インフォームド状態表現を定義する。
提案アーキテクチャは、安全制約やラグランジアン正規化を付加したRLアルゴリズム(例えば、DQN、PPO)でインスタンス化することができる。
概念的には、このフレームワークは機械学習ポリシー最適化における共感と責任を運用し、安全なRLをブリッジし、感情的コンピューティングと責任あるAIを提供します。
本稿では, 行動保健, 教育, デジタル治療などの人間中心領域におけるこのアプローチの意義について論じ, 今後の経験的作業のためのシミュレーションに基づく検証パスの概要を述べる。
本稿では,感情的認知と信頼に足るパーソナライゼーションシステムのための,倫理的に整合した強化学習に関する方法論的会話を開始することを目的とする。
関連論文リスト
- Domain-Specific Constitutional AI: Enhancing Safety in LLM-Powered Mental Health Chatbots [8.262471803441542]
メンタルヘルスの応用は、計算健康にとって重要な分野として現れてきた。
一般的なセーフガードは、メンタルヘルス固有の課題に不十分に対処する。
我々は、安全でドメイン対応のCAIシステムに対して、ドメイン固有のメンタルヘルス原則に立憲AIトレーニングを適用するアプローチを導入する。
論文 参考訳(メタデータ) (2025-09-19T21:46:47Z) - A Survey on Autonomy-Induced Security Risks in Large Model-Based Agents [45.53643260046778]
大規模言語モデル(LLM)の最近の進歩は、自律型AIエージェントの台頭を触媒している。
これらの大きなモデルエージェントは、静的推論システムからインタラクティブなメモリ拡張エンティティへのパラダイムシフトを示す。
論文 参考訳(メタデータ) (2025-06-30T13:34:34Z) - Position Paper: Rethinking Privacy in RL for Sequential Decision-making in the Age of LLMs [46.828146821060265]
マルチスケール保護,行動パターン保護,協調プライバシ保護,コンテキスト認識適応という,4つの基本原則に基づいて構築された新たなプライバシパラダイムについて論じる。
これらの原則は、医療、自動運転車、およびLSMによる意思決定支援システムのような高度な領域において、RLシステムがより広く普及するにつれて、プライバシー、実用性、解釈可能性の間に固有の緊張関係を浮き彫りにする。
論文 参考訳(メタデータ) (2025-04-15T10:45:55Z) - The challenge of uncertainty quantification of large language models in medicine [0.0]
本研究では,医学応用のための大規模言語モデル(LLM)の不確実性定量化について検討する。
私たちの研究は、不確実性を障壁としてではなく、AI設計に対する動的で反射的なアプローチを招待する知識の不可欠な部分として捉えています。
論文 参考訳(メタデータ) (2025-04-07T17:24:11Z) - Teleology-Driven Affective Computing: A Causal Framework for Sustained Well-Being [0.1636303041090359]
本稿では,主要な感情理論を統一するテレロジー駆動型感情コンピューティングフレームワークを提案する。
我々は、個人的な情緒的な出来事の「データバース」を作ることを提唱する。
シミュレーション環境でエージェントを訓練するためのメタ強化学習パラダイムを導入する。
論文 参考訳(メタデータ) (2025-02-24T14:07:53Z) - Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [58.61680631581921]
メンタルヘルス障害は、深い個人的・社会的負担を生じさせるが、従来の診断はリソース集約的でアクセシビリティが制限される。
本稿では、これらの課題を考察し、匿名化、合成データ、プライバシー保護トレーニングを含む解決策を提案する。
臨床的な意思決定をサポートし、メンタルヘルスの結果を改善する、信頼できるプライバシを意識したAIツールを進化させることを目標としている。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - Human services organizations and the responsible integration of AI: Considering ethics and contextualizing risk(s) [0.0]
著者らは、AIデプロイメントに関する倫理的懸念は、実装コンテキストや特定のユースケースによって大きく異なると主張している。
彼らは、データ感度、専門的な監視要件、クライアントの幸福に対する潜在的影響などの要因を考慮に入れた、次元的リスクアセスメントアプローチを提案する。
論文 参考訳(メタデータ) (2025-01-20T19:38:21Z) - Open Problems in Machine Unlearning for AI Safety [61.43515658834902]
特定の種類の知識を選択的に忘れたり、抑圧したりするマシンアンラーニングは、プライバシとデータ削除タスクの約束を示している。
本稿では,アンラーニングがAI安全性の包括的ソリューションとして機能することを防止するための重要な制約を特定する。
論文 参考訳(メタデータ) (2025-01-09T03:59:10Z) - Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare [1.8964739087256175]
原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
論文 参考訳(メタデータ) (2023-05-23T16:04:59Z) - Constrained Markov Decision Processes via Backward Value Functions [43.649330976089004]
制約付きマルコフ決定プロセスとして,制約付き学習の問題をモデル化する。
我々のアプローチの重要な貢献は、累積的なコスト制約を状態ベースの制約に変換することである。
我々は、エージェントが訓練の過程で安全を確保しながら収束する理論的保証を提供する。
論文 参考訳(メタデータ) (2020-08-26T20:56:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。