論文の概要: AnnoSense: A Framework for Physiological Emotion Data Collection in Everyday Settings for AI
- arxiv url: http://arxiv.org/abs/2508.02680v1
- Date: Thu, 17 Jul 2025 10:54:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-10 09:30:49.30798
- Title: AnnoSense: A Framework for Physiological Emotion Data Collection in Everyday Settings for AI
- Title(参考訳): AnnoSense: AIの日常設定における生理的感情データ収集フレームワーク
- Authors: Pragya Singh, Ankush Gupta, Mohan Kumar, Pushpendra Singh,
- Abstract要約: この研究は、主要な利害関係者の視点から、日々の感情データ収集の課題を探求する。
合計119人の利害関係者から得られた洞察は、私たちのフレームワークであるAnnoSenseの開発を知らせた。
- 参考スコア(独自算出の注目度): 6.163410826967868
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emotional and mental well-being are vital components of quality of life, and with the rise of smart devices like smartphones, wearables, and artificial intelligence (AI), new opportunities for monitoring emotions in everyday settings have emerged. However, for AI algorithms to be effective, they require high-quality data and accurate annotations. As the focus shifts towards collecting emotion data in real-world environments to capture more authentic emotional experiences, the process of gathering emotion annotations has become increasingly complex. This work explores the challenges of everyday emotion data collection from the perspectives of key stakeholders. We collected 75 survey responses, performed 32 interviews with the public, and 3 focus group discussions (FGDs) with 12 mental health professionals. The insights gained from a total of 119 stakeholders informed the development of our framework, AnnoSense, designed to support everyday emotion data collection for AI. This framework was then evaluated by 25 emotion AI experts for its clarity, usefulness, and adaptability. Lastly, we discuss the potential next steps and implications of AnnoSense for future research in emotion AI, highlighting its potential to enhance the collection and analysis of emotion data in real-world contexts.
- Abstract(参考訳): 感情と精神的幸福は生活の質の重要な要素であり、スマートフォン、ウェアラブル、人工知能(AI)といったスマートデバイスが台頭し、日々の環境の中で感情を監視する新たな機会が生まれている。
しかし、AIアルゴリズムが効果的であるためには、高品質のデータと正確なアノテーションが必要である。
現実の環境における感情データ収集に焦点が移るにつれて、感情のアノテーション収集のプロセスはますます複雑になっている。
この研究は、主要な利害関係者の視点から、日々の感情データ収集の課題を探求する。
調査回答は75件,公衆インタビュー32件,フォーカスグループディスカッション(FGD)3件,メンタルヘルス専門家12名を対象にした。
合計119人の利害関係者から得られた洞察は、私たちのフレームワークであるAnnoSenseの開発を知らせた。
このフレームワークは、その明快さ、有用性、適応性について、25人の感情AI専門家によって評価された。
最後に、感情AIの今後の研究におけるAnnoSenseの次のステップと意義について論じ、現実の文脈における感情データの収集と分析を強化する可能性を強調した。
関連論文リスト
- Are You Listening to Me? Fine-Tuning Chatbots for Empathetic Dialogue [0.5849783371898033]
感情的にリッチなインタラクションを生成するタスクにおいて,Large Language Models (LLM) がどのように反応するかを検討する。
本研究では,感情分析(VADER)と専門家評価の両方を用いて,対話の感情的進行を分析した。
論文 参考訳(メタデータ) (2025-07-03T11:32:41Z) - Feeling Machines: Ethics, Culture, and the Rise of Emotional AI [18.212492056071657]
本稿では,批判的・学際的なレンズによる感情応答型人工知能の存在感の高まりについて考察する。
それは、人間の感情をシミュレートし、解釈するAIシステムが、教育、医療、メンタルヘルス、介護、デジタルライフなどの分野における私たちのインタラクションをどう変えているかを探求する。
この分析は、感情的AIの倫理的意味、人間と機械の相互作用の文化的ダイナミクス、脆弱な人口のリスクと機会、そして新たな規制、設計、技術的考察の4つの中心的なテーマに基づいて構成されている。
論文 参考訳(メタデータ) (2025-06-14T10:28:26Z) - Modelling Emotions in Face-to-Face Setting: The Interplay of Eye-Tracking, Personality, and Temporal Dynamics [1.4645774851707578]
本研究では、視線追跡データ、時間的ダイナミクス、性格特性を統合することで、知覚と知覚の両方の感情の検出を大幅に向上させる方法について述べる。
本研究は,将来の情緒コンピューティングと人間エージェントシステムの設計を示唆するものである。
論文 参考訳(メタデータ) (2025-03-18T13:15:32Z) - Enhancing Collective Intelligence in Large Language Models Through Emotional Integration [0.2812395851874055]
本研究では,大規模言語モデル (LLM) への感情的多様性の統合を,集団知能を高めるために検討する。
群衆現象の人間の知恵に触発され、GoogleのGoEmotionsデータセットとローランド適応(LoRA)を用いてDarkIdol-Llama-3.1-8Bモデルを微調整し、感情的に多様な応答をシミュレートした。
論文 参考訳(メタデータ) (2025-03-05T23:42:48Z) - CAPE: A Chinese Dataset for Appraisal-based Emotional Generation using Large Language Models [30.40159858361768]
認知評価理論に基づく感情コーパスという中国のデータセットであるCAPEを作成するための2段階の自動データ生成フレームワークを提案する。
このコーパスは、多様な個人的・状況的要因を考慮し、文脈的に適切な感情的反応を伴う対話を生成する。
我々の研究は、会話エージェントにおける感情表現を前進させる可能性を示し、よりニュアンスで有意義な人間とコンピュータの相互作用の道を開いた。
論文 参考訳(メタデータ) (2024-10-18T03:33:18Z) - SemEval-2024 Task 3: Multimodal Emotion Cause Analysis in Conversations [53.60993109543582]
SemEval-2024 Task 3 "Multimodal Emotion Cause Analysis in Conversations" は、会話からすべての感情とそれに対応する原因を抽出することを目的としている。
異なるモダリティ設定の下では、2つのサブタスクから構成される: 会話におけるテキスト感情因果ペア抽出(TECPE)と会話におけるマルチモーダル感情因果ペア抽出(MECPE)である。
本稿では,タスク,データセット,評価設定について紹介し,トップチームのシステムを要約し,参加者の知見について議論する。
論文 参考訳(メタデータ) (2024-05-19T09:59:00Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z) - Emotion-aware Chat Machine: Automatic Emotional Response Generation for
Human-like Emotional Interaction [55.47134146639492]
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
実世界のデータを用いた実験により,提案手法は,コンテンツコヒーレンスと感情の適切性の両方の観点から,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T06:26:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。