論文の概要: R-CAGE: A Structural Model for Emotion Output Design in Human-AI Interaction
- arxiv url: http://arxiv.org/abs/2505.07020v1
- Date: Sun, 11 May 2025 15:30:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.163088
- Title: R-CAGE: A Structural Model for Emotion Output Design in Human-AI Interaction
- Title(参考訳): R-CAGE:人間-AIインタラクションにおける感情出力設計のための構造モデル
- Authors: Suyeon Choi,
- Abstract要約: R-CAGEは、人間とAIの長期的な相互作用において、感情的な出力を再構築するための理論的枠組みである。
R-CAGEは、感情リズム、感覚強度、解釈能力を構造的に調節することにより、感情をパフォーマンス出力ではなく、持続可能なデザイン単位としてフレーム化する。
- 参考スコア(独自算出の注目度): 2.1828601975620257
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents R-CAGE (Rhythmic Control Architecture for Guarding Ego), a theoretical framework for restructuring emotional output in long-term human-AI interaction. While prior affective computing approaches emphasized expressiveness, immersion, and responsiveness, they often neglected the cognitive and structural consequences of repeated emotional engagement. R-CAGE instead conceptualizes emotional output not as reactive expression but as ethical design structure requiring architectural intervention. The model is grounded in experiential observations of subtle affective symptoms such as localized head tension, interpretive fixation, and emotional lag arising from prolonged interaction with affective AI systems. These indicate a mismatch between system-driven emotion and user interpretation that cannot be fully explained by biometric data or observable behavior. R-CAGE adopts a user-centered stance prioritizing psychological recovery, interpretive autonomy, and identity continuity. The framework consists of four control blocks: (1) Control of Rhythmic Expression regulates output pacing to reduce fatigue; (2) Architecture of Sensory Structuring adjusts intensity and timing of affective stimuli; (3) Guarding of Cognitive Framing reduces semantic pressure to allow flexible interpretation; (4) Ego-Aligned Response Design supports self-reference recovery during interpretive lag. By structurally regulating emotional rhythm, sensory intensity, and interpretive affordances, R-CAGE frames emotion not as performative output but as sustainable design unit. The goal is to protect users from oversaturation and cognitive overload while sustaining long-term interpretive agency in AI-mediated environments.
- Abstract(参考訳): 本稿では,長期の人間とAIのインタラクションにおいて感情的アウトプットを再構築するための理論的枠組みであるR-CAGE(Rhythmic Control Architecture for Guarding Ego)を提案する。
それまでの感情コンピューティングのアプローチは、表現力、没入性、応答性を強調していたが、繰り返し発生する情緒的エンゲージメントの認知的および構造的帰結を無視することが多かった。
R-CAGEは、感情的なアウトプットをリアクティブな表現ではなく、アーキテクチャの介入を必要とする倫理的デザイン構造として概念化する。
このモデルは、局所的な頭部緊張、解釈的固定、感情的AIシステムとの長時間の相互作用から生じる感情的なラグなどの微妙な情緒的な症状を経験的に観察することに基づいている。
これらは、生体データや観察可能な振る舞いによって完全に説明できない、システム駆動の感情とユーザ解釈のミスマッチを示している。
R-CAGEは、心理的回復、解釈的自律性、アイデンティティ連続性を優先するユーザー中心のスタンスを採用する。
本フレームワークは,(1)リズム表現の制御が疲労軽減のために出力ペーシングを調節する,(2)感覚構造化のアーキテクチャが感情刺激の強度とタイミングを調節する,(3)認知的フラーミングのガードが意味的な圧力を減らし,柔軟な解釈を可能にする,(4)エゴアラインド・レスポンス・デザインは,解釈的ラグの自己参照回復をサポートする,という4つの制御ブロックから構成される。
R-CAGEは、感情リズム、感覚強度、解釈能力を構造的に調節することにより、感情をパフォーマンス出力ではなく、持続可能なデザイン単位としてフレーム化する。
目標は、AIを介する環境で長期的な解釈エージェンシーを維持しながら、ユーザーを過飽和や認知的過負荷から守ることである。
関連論文リスト
- Narrative-Centered Emotional Reflection: Scaffolding Autonomous Emotional Literacy with AI [0.0]
リフレクション(Reflexion)は、大規模に構造化された感情的自己反射を可能にするAIベースのプラットフォームである。
システム足場は、表面レベルの感情認識から価値に整合した行動計画への進歩的な旅である。
論文 参考訳(メタデータ) (2025-04-29T01:24:46Z) - Modelling Emotions in Face-to-Face Setting: The Interplay of Eye-Tracking, Personality, and Temporal Dynamics [1.4645774851707578]
本研究では、視線追跡データ、時間的ダイナミクス、性格特性を統合することで、知覚と知覚の両方の感情の検出を大幅に向上させる方法について述べる。
本研究は,将来の情緒コンピューティングと人間エージェントシステムの設計を示唆するものである。
論文 参考訳(メタデータ) (2025-03-18T13:15:32Z) - Teleology-Driven Affective Computing: A Causal Framework for Sustained Well-Being [0.1636303041090359]
本稿では,主要な感情理論を統一するテレロジー駆動型感情コンピューティングフレームワークを提案する。
我々は、個人的な情緒的な出来事の「データバース」を作ることを提唱する。
シミュレーション環境でエージェントを訓練するためのメタ強化学習パラダイムを導入する。
論文 参考訳(メタデータ) (2025-02-24T14:07:53Z) - ReflectDiffu:Reflect between Emotion-intent Contagion and Mimicry for Empathetic Response Generation via a RL-Diffusion Framework [5.135349405469574]
共感応答生成のための軽量フレームワークである ReflectDiffu を紹介する。
感情の伝染を組み込んで感情の表現力を増強し、感情に反応するマスクを用いて重要な感情的要素を特定できる。
感情的な意思決定を正確に意図的な行動に変換することで、感情的な誤認識に起因する共感的な反応の不一致に対処する。
論文 参考訳(メタデータ) (2024-09-16T13:56:17Z) - ECR-Chain: Advancing Generative Language Models to Better Emotion-Cause Reasoners through Reasoning Chains [61.50113532215864]
CEE(Causal Emotion Entailment)は、ターゲット発話で表現される感情を刺激する会話における因果発話を特定することを目的としている。
CEEにおける現在の研究は、主に会話のセマンティックな相互作用と感情的な相互作用をモデル化することに焦点を当てている。
本研究では,会話中の感情表現から刺激を推測するために,ステップバイステップの推論手法である感情・因果関係(ECR-Chain)を導入する。
論文 参考訳(メタデータ) (2024-05-17T15:45:08Z) - CauESC: A Causal Aware Model for Emotional Support Conversation [79.4451588204647]
既存のアプローチは、苦痛の感情の原因を無視します。
彼らは、話者間の相互作用における感情的ダイナミクスよりも、探究者自身の精神状態に焦点を当てている。
本稿では、まず、苦痛の感情要因と、その原因によって引き起こされる感情効果を認識する新しいフレームワークCauESCを提案する。
論文 参考訳(メタデータ) (2024-01-31T11:30:24Z) - A Hierarchical Regression Chain Framework for Affective Vocal Burst
Recognition [72.36055502078193]
本稿では,声帯からの感情認識のための連鎖回帰モデルに基づく階層的枠組みを提案する。
データスパシティの課題に対処するため、レイヤワイドおよび時間アグリゲーションモジュールを備えた自己教師付き学習(SSL)表現も使用しています。
提案されたシステムは、ACII Affective Vocal Burst (A-VB) Challenge 2022に参加し、「TWO」および「CULTURE」タスクで第1位となった。
論文 参考訳(メタデータ) (2023-03-14T16:08:45Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - Emotion-aware Chat Machine: Automatic Emotional Response Generation for
Human-like Emotional Interaction [55.47134146639492]
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
実世界のデータを用いた実験により,提案手法は,コンテンツコヒーレンスと感情の適切性の両方の観点から,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T06:26:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。