論文の概要: Technosocial risks of ideal emotion recognition technologies: A defense of the (social) value of emotional expressions
- arxiv url: http://arxiv.org/abs/2602.08706v1
- Date: Mon, 09 Feb 2026 14:20:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.281939
- Title: Technosocial risks of ideal emotion recognition technologies: A defense of the (social) value of emotional expressions
- Title(参考訳): 理想的な感情認識技術の技術的リスク:感情表現の(社会的)価値を擁護する
- Authors: Alexandra Pregent,
- Abstract要約: このようなシステムの魅力は、社会的機能的感情表現の誤解にかかっていると私は論じる。
ERTは、上皮性摩擦を崩壊させ、テクノロジーが媒介する感情プロファイルで意味を減らし、願望や役割に敏感な表現のための空間を狭めることで、この表現空間を脅かす。
精度の向上がそのようなシステムを正当化すると考えるのは直感的ではあるが、ETRの精度は直接的にその展開を正当化するものではなく、一部の文脈では規制規制の理由となるかもしれない、と私は主張する。
- 参考スコア(独自算出の注目度): 51.56484100374058
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The prospect of AI systems that I call ideal emotion recognition technologies (ERTs) is often defended on the assumption that social life would benefit from increased affective transparency. This paper challenges that assumption by examining the technosocial risks posed by ideal ERTs, understood as multimodal systems capable of reliably inferring inner affective states in real time. Drawing on philosophical accounts of emotional expression and social practice, as well as empirical work in affective science and social psychology, I argue that the appeal of such systems rests on a misunderstanding of the social functions of emotional expression. Emotional expressions function not only as read-outs of inner states, but also as tools for coordinating action, enabling moral repair, sustaining interpersonal trust, and supporting collective norms. These functions depend on a background of partial opacity and epistemic friction. When deployed in socially authoritative or evaluative contexts, ideal ERTs threaten this expressive space by collapsing epistemic friction, displacing relational meaning with technology-mediated affective profiles, and narrowing the space for aspirational and role-sensitive expressions. The result is a drift towards affective determinism and ambient forms of affective auditing, which undermine both social cohesion and individual agency. I argue that, although it is intuitive to think that increasing accuracy would legitimise such systems, in the case of ERTs accuracy does not straightforwardly justify their deployment, and may, in some contexts, provide a reason for regulatory restraint. I conclude by defending a function-first regulatory approach that treats expressive discretion and intentional emotional expression as constitutive of certain social goods, and that accordingly seeks to protect these goods from excessive affective legibility.
- Abstract(参考訳): 私が理想的な感情認識技術(ERT)と呼ぶAIシステムの展望は、社会生活が感情的透明性の増大から恩恵を受けるという前提でしばしば守られている。
本稿では, 理想的なETRがもたらす技術的リスクを検証し, 内的情緒状態をリアルタイムで確実に推定できるマルチモーダルシステムとして理解し, その仮定に挑戦する。
感情表現と社会実践の哲学的説明と感情科学と社会心理学の実証的な研究に基づいて、このようなシステムの魅力は、感情表現の社会的機能の誤解にかかっていると論じる。
感情表現は、内的状態の読み出しだけでなく、行動調整、道徳的修復、対人信頼の維持、集団規範の支持のための道具としても機能する。
これらの機能は部分的不透明感とてんかんの摩擦の背景に依存している。
社会的に権威的あるいは評価的な文脈に展開すると、理想的なERTは、この表現空間を脅かし、疫学的な摩擦を崩壊させ、テクノロジーによる感情的プロファイルで関係性の意味を減らし、願望や役割に敏感な表現の空間を狭める。
その結果、情緒的決定主義と環境的な情緒的監査への流れが、社会的結束と個々の機関の両方を損なうことになった。
精度の向上がそのようなシステムを正当化すると考えるのは直感的ではあるが、ETRの精度は直接的にその展開を正当化するものではなく、一部の文脈では規制規制の理由となるかもしれない、と私は主張する。
私は、ある社会財を構成するものとして、表現的判断と意図的感情表現を扱う機能第一の規制アプローチを擁護し、それに従って、これらの商品を過度な情緒的正当性から保護しようとしていると結論づける。
関連論文リスト
- Emotion-Coherent Reasoning for Multimodal LLMs via Emotional Rationale Verifier [53.55996102181836]
本稿では,感情関係検証器 (ERV) と説明リワードを提案する。
本手法は,対象感情と明確に一致した推論をモデルに導出する。
我々のアプローチは、説明と予測の整合性を高めるだけでなく、MLLMが感情的に一貫性があり、信頼できる対話を実現するのにも役立ちます。
論文 参考訳(メタデータ) (2025-10-27T16:40:17Z) - Wrong Face, Wrong Move: The Social Dynamics of Emotion Misperception in Agent-Based Models [2.0221069271989305]
人間が他人の感情を検知し、反応する能力は、社会的行動を理解するのに不可欠である。
ここでは、エージェントが様々な精度の感情分類器でインスタンス化され、知覚的精度が創発的感情行動および空間行動に与える影響を研究する。
その結果, 低精度分類器は信頼の低下, 悲しみへの感情の崩壊, 混乱した社会組織を確実に引き起こすことがわかった。
論文 参考訳(メタデータ) (2025-08-26T22:42:46Z) - Feeling Machines: Ethics, Culture, and the Rise of Emotional AI [18.212492056071657]
本稿では,批判的・学際的なレンズによる感情応答型人工知能の存在感の高まりについて考察する。
それは、人間の感情をシミュレートし、解釈するAIシステムが、教育、医療、メンタルヘルス、介護、デジタルライフなどの分野における私たちのインタラクションをどう変えているかを探求する。
この分析は、感情的AIの倫理的意味、人間と機械の相互作用の文化的ダイナミクス、脆弱な人口のリスクと機会、そして新たな規制、設計、技術的考察の4つの中心的なテーマに基づいて構成されている。
論文 参考訳(メタデータ) (2025-06-14T10:28:26Z) - Sentient Agent as a Judge: Evaluating Higher-Order Social Cognition in Large Language Models [75.85319609088354]
SAGE(Sentient Agent as a Judge)は、大規模言語モデルの評価フレームワークである。
SAGEは人間のような感情の変化や内的思考をシミュレートするSentient Agentをインスタンス化する。
SAGEは、真に共感的で社会的に適応的な言語エージェントへの進捗を追跡するための、原則付き、スケーラブルで解釈可能なツールを提供する。
論文 参考訳(メタデータ) (2025-05-01T19:06:10Z) - Emotions in Artificial Intelligence [0.0]
すべての事象に付随して対応する感情タグを記憶することで、感情がエピソード記憶と織り交ぜられることが示唆された。
これにより、AIは現在の状況が過去の出来事に似ているかどうかを確認し、関連する感情ラベルを現在の状況に投影することができる。
複合感情状態は、行動選択を調節することにより、現在における意思決定を促進する。
論文 参考訳(メタデータ) (2025-05-01T17:37:14Z) - From Rational Answers to Emotional Resonance: The Role of Controllable Emotion Generation in Language Models [16.350658746140788]
大規模言語モデル(LLM)は、一貫性があり、制御可能で、文脈的に適切な方法で感情を表現するのに苦労する。
感情ベクトル(EV)に基づく制御可能な感情生成フレームワークを提案する。
本手法は、追加のトレーニングやアーキテクチャの変更なしに、感情のトーンを微調整し、連続的に調整することができる。
論文 参考訳(メタデータ) (2025-02-06T13:38:57Z) - Disambiguating Affective Stimulus Associations for Robot Perception and
Dialogue [67.89143112645556]
知覚された聴覚刺激と感情表現の関連性を学ぶことができるNICOロボットを提供します。
NICOは、感情駆動対話システムの助けを借りて、個人と特定の刺激の両方でこれを行うことができる。
ロボットは、実際のHRIシナリオにおいて、被験者の聴覚刺激の楽しさを判断するために、この情報を利用することができる。
論文 参考訳(メタデータ) (2021-03-05T20:55:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。