論文の概要: Teaching AI to Feel: A Collaborative, Full-Body Exploration of Emotive Communication
- arxiv url: http://arxiv.org/abs/2509.22168v1
- Date: Fri, 26 Sep 2025 10:28:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.367746
- Title: Teaching AI to Feel: A Collaborative, Full-Body Exploration of Emotive Communication
- Title(参考訳): AIにフィールを教える - モチベーションコミュニケーションのコラボレーティブでフルボディな探索
- Authors: Esen K. Tütüncü, Lissette Lemus, Kris Pilcher, Holger Sprengel, Jordi Sabater-Mir,
- Abstract要約: Commonaiverseは、フルボディのモーショントラッキングとリアルタイムAIフィードバックを通じて人間の感情を探索するインタラクティブなインストールである。
この協調的、アウト・オブ・ザ・ボックス(out-of-of-the-box)アプローチが、マルチメディア研究を、より具体化され、共創された感情的AIのパラダイムへと押し上げる方法について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Commonaiverse is an interactive installation exploring human emotions through full-body motion tracking and real-time AI feedback. Participants engage in three phases: Teaching, Exploration and the Cosmos Phase, collaboratively expressing and interpreting emotions with the system. The installation integrates MoveNet for precise motion tracking and a multi-recommender AI system to analyze emotional states dynamically, responding with adaptive audiovisual outputs. By shifting from top-down emotion classification to participant-driven, culturally diverse definitions, we highlight new pathways for inclusive, ethical affective computing. We discuss how this collaborative, out-of-the-box approach pushes multimedia research beyond single-user facial analysis toward a more embodied, co-created paradigm of emotional AI. Furthermore, we reflect on how this reimagined framework fosters user agency, reduces bias, and opens avenues for advanced interactive applications.
- Abstract(参考訳): Commonaiverseは、フルボディのモーショントラッキングとリアルタイムAIフィードバックを通じて人間の感情を探索するインタラクティブなインストールである。
参加者は、教育、探索、コスモスフェーズという3つのフェーズに参加し、システムと感情を協調的に表現し、解釈する。
このインストレーションは、正確なモーショントラッキングのためのMoveNetと、適応的なオーディオ視覚出力に応答して感情状態を動的に分析するマルチレコメンダAIシステムを統合する。
トップダウンの感情分類から参加者主導型、文化的に多様な定義へとシフトすることで、包括的で倫理的な感情的コンピューティングのための新しい経路を浮き彫りにする。
この協調的なアウト・オブ・ザ・ボックス(out-of-of-the-box)アプローチが、マルチメディア研究をシングルユーザーによる顔分析を超えて、より具体的で共創された感情的AIのパラダイムへと進める方法について論じる。
さらに、この再定義されたフレームワークがユーザエージェンシーを育成し、バイアスを低減し、高度な対話型アプリケーションへの道を開く方法について考察する。
関連論文リスト
- AIVA: An AI-based Virtual Companion for Emotion-aware Interaction [10.811567597962453]
私たちのAIベースの仮想コンパニオンは、マルチモーダルな感情の手がかりをキャプチャします。
私たちの組織は、ロボット工学、社会医療、メンタルヘルス、人間中心のAIに応用された感情認識エージェントのためのフレームワークを提供します。
論文 参考訳(メタデータ) (2025-09-03T11:00:46Z) - GatedxLSTM: A Multimodal Affective Computing Approach for Emotion Recognition in Conversations [35.63053777817013]
GatedxLSTMは、会話におけるマルチモーダル感情認識(ERC)モデルである。
話者と会話相手の双方の声と書き起こしを考慮し、感情的なシフトを駆動する最も影響力のある文章を特定する。
4クラスの感情分類において,オープンソース手法間でのSOTA(State-of-the-art)性能を実現する。
論文 参考訳(メタデータ) (2025-03-26T18:46:18Z) - Two in One Go: Single-stage Emotion Recognition with Decoupled Subject-context Transformer [78.35816158511523]
単段階の感情認識手法として,DSCT(Decoupled Subject-Context Transformer)を用いる。
広範に使われている文脈認識型感情認識データセットであるCAER-SとEMOTICの単段階フレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-04-26T07:30:32Z) - Maia: A Real-time Non-Verbal Chat for Human-AI Interaction [10.580858171606167]
我々はテキストベースのヒューマン-AIインタラクションの代替案を提案する。
非言語的な視覚コミュニケーションを活用することで、表情、頭と体の動きを通じて、エンゲージメントを高めることを目指している。
我々のアプローチは芸術に特化せず、様々な絵画、アニメーション、アバターに適応することができる。
論文 参考訳(メタデータ) (2024-02-09T13:07:22Z) - Attention-based Interactive Disentangling Network for Instance-level
Emotional Voice Conversion [81.1492897350032]
感情音声変換(Emotional Voice Conversion)は、非感情成分を保存しながら、与えられた感情に応じて音声を操作することを目的とする。
本稿では,音声変換にインスタンスワイドな感情知識を活用する,意図に基づく対話型ディスタングネットワーク(AINN)を提案する。
論文 参考訳(メタデータ) (2023-12-29T08:06:45Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - MoEmo Vision Transformer: Integrating Cross-Attention and Movement
Vectors in 3D Pose Estimation for HRI Emotion Detection [4.757210144179483]
ロボットシステム内での人間の感情検出のためのクロスアテンション・ビジョン・トランスフォーマ(ViT)であるMoEmo(Motion to Emotion)を紹介する。
我々は,移動ベクトルと環境コンテキストを結合表現に組み合わせ,感情推定を導出するクロスアテンション融合モデルを実装した。
我々はMoEmoシステムをトレーニングし、動きとコンテキストを共同で分析し、現在の最先端よりも優れた感情を検出する。
論文 参考訳(メタデータ) (2023-10-15T06:52:15Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Temporal aggregation of audio-visual modalities for emotion recognition [0.5352699766206808]
本研究では,時間的オフセットの異なる時間的オフセットと時間的ウィンドウからの音声・視覚的モダリティを組み合わせた感情認識のためのマルチモーダル融合手法を提案する。
提案手法は,文献と人間の精度評価から,他の手法よりも優れている。
論文 参考訳(メタデータ) (2020-07-08T18:44:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。