論文の概要: A Blast From the Past: Personalizing Predictions of Video-Induced
Emotions using Personal Memories as Context
- arxiv url: http://arxiv.org/abs/2008.12096v1
- Date: Thu, 27 Aug 2020 13:06:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 08:21:20.588439
- Title: A Blast From the Past: Personalizing Predictions of Video-Induced
Emotions using Personal Memories as Context
- Title(参考訳): 過去を振り返る:個人記憶を文脈としたビデオ誘発感情の個人化予測
- Authors: Bernd Dudzik, Joost Broekens, Mark Neerincx, Hayley Hung
- Abstract要約: ビデオトリガーされた記憶を記述したテキストの自動解析は、視聴者の感情的反応の変動を考慮できることを示す。
パーソナライズされた文脈における感情的ビデオ分析の自動化に対する技術アプローチの状況改善におけるこれらの知見の関連性について論じる。
- 参考スコア(独自算出の注目度): 5.1314912554605066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A key challenge in the accurate prediction of viewers' emotional responses to
video stimuli in real-world applications is accounting for person- and
situation-specific variation. An important contextual influence shaping
individuals' subjective experience of a video is the personal memories that it
triggers in them. Prior research has found that this memory influence explains
more variation in video-induced emotions than other contextual variables
commonly used for personalizing predictions, such as viewers' demographics or
personality. In this article, we show that (1) automatic analysis of text
describing their video-triggered memories can account for variation in viewers'
emotional responses, and (2) that combining such an analysis with that of a
video's audiovisual content enhances the accuracy of automatic predictions. We
discuss the relevance of these findings for improving on state of the art
approaches to automated affective video analysis in personalized contexts.
- Abstract(参考訳): 実世界のアプリケーションにおける映像刺激に対する視聴者の感情反応の正確な予測における重要な課題は、人的・状況特異的な変動を考慮することである。
ビデオにおける個人の主観的体験を形作る重要な文脈的影響は、それが引き起こす個人的な記憶である。
以前の研究では、この記憶の影響は、視聴者の人口統計やパーソナリティなどの予測をパーソナライズするためによく使われる他の文脈変数よりも、ビデオによる感情の変化を説明できることがわかった。
本稿では,(1)ビデオトリガされた記憶を記述したテキストの自動分析によって,視聴者の感情的反応の変化が説明できることを示すとともに,(2)映像の映像コンテンツのそれと組み合わせることで,自動予測の精度が向上することを示す。
パーソナライズされた文脈における感情的ビデオ分析の自動化に対する技術アプローチの状況改善におけるこれらの知見の関連性について論じる。
関連論文リスト
- SPECTRUM: Semantic Processing and Emotion-informed video-Captioning Through Retrieval and Understanding Modalities [0.7510165488300369]
本稿では,検索・理解モダリティ(SPECTRUM)フレームワークを用いたセマンティック・プロセッシングと感情インフォームド・ビデオキャプションを提案する。
SPECTRUMは、VTAI(Visual Text Attribute Investigation)を用いてマルチモーダルなセマンティクスと感情的なテーマを特定し、記述的キャプションの向きを決定する。
ビデオ・トゥ・テキスト検索機能とビデオコンテンツの多面的特性を利用して、候補キャプションの感情的確率を推定する。
論文 参考訳(メタデータ) (2024-11-04T10:51:47Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - How Would The Viewer Feel? Estimating Wellbeing From Video Scenarios [73.24092762346095]
情緒応答と主観的幸福感に注釈を付けた6万本以上のビデオを備えた大規模データセットを2つ導入した。
Video Cognitive Empathyデータセットには、微粒な感情応答の分布のためのアノテーションが含まれており、モデルが感情状態の詳細な理解を得ることができる。
Video to Valenceデータセットには、ビデオ間の相対的な快適性のアノテーションが含まれている。
論文 参考訳(メタデータ) (2022-10-18T17:58:25Z) - Affection: Learning Affective Explanations for Real-World Visual Data [50.28825017427716]
我々は,85,007枚の公開画像に対して,感情反応と自由形式のテキスト説明を含む大規模データセットを研究コミュニティに導入し,共有する。
本研究は, 被写体集団に大きな支持を得て, 潜在的に有意な感情反応をとらえる上で, 重要な共通基盤があることを示唆する。
私たちの研究は、より豊かで、より人間中心で、感情に敏感な画像分析システムへの道を開くものです。
論文 参考訳(メタデータ) (2022-10-04T22:44:17Z) - Predicting emotion from music videos: exploring the relative
contribution of visual and auditory information to affective responses [0.0]
本稿では、感情的マルチメディアコンテンツ分析のための新しいデータセットであるMusicVideos(MuVi)を紹介する。
データは、音楽、視覚、オーディオヴィジュアルの3つの条件で、参加者に音楽映像を提示することで収集された。
論文 参考訳(メタデータ) (2022-02-19T07:36:43Z) - Audio-Driven Emotional Video Portraits [79.95687903497354]
Emotional Video Portraits(EVP)は、オーディオによって駆動される鮮やかな感情的なダイナミクスで高品質のビデオポートレートを合成するシステムです。
具体的には,音声を2つの分離空間に分解するクロスリコンストラクテッド感情不等角化手法を提案する。
ゆがんだ特徴によって、動的2D感情的な顔のランドマークは推定することができます。
次に,最終的な高品質映像画像を生成するために,ターゲット適応型顔合成手法を提案する。
論文 参考訳(メタデータ) (2021-04-15T13:37:13Z) - Affect2MM: Affective Analysis of Multimedia Content Using Emotion
Causality [84.69595956853908]
本稿では,マルチメディアコンテンツを対象とした時系列感情予測学習手法であるAffect2MMを提案する。
私たちの目標は、現実の人間中心の状況や行動でキャラクターが描く様々な感情を自動的に捉えることです。
論文 参考訳(メタデータ) (2021-03-11T09:07:25Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - AttendAffectNet: Self-Attention based Networks for Predicting Affective
Responses from Movies [16.45955178108593]
本研究では、映画から感情予測のための自己注意型ネットワークの様々なバリエーションを提案し、これをAttendAffectNetと呼ぶ。
音声とビデオの両方を考慮し、感情予測のための抽出特徴に自己認識機構を新しい方法で適用することにより、複数のモーダル間の関係を取り入れる。
以上の結果から,時間領域よりも視覚的特徴に自己注意機構を適用する方が感情予測に有効であることが示唆された。
論文 参考訳(メタデータ) (2020-10-21T05:13:24Z) - Context Based Emotion Recognition using EMOTIC Dataset [22.631542327834595]
EMOTIC(エモティック)は, 感情に注意を喚起された人々のイメージのデータセットである。
EMOTICデータセットを使用して、感情認識のためのさまざまなCNNモデルをトレーニングする。
その結果,情緒状態を自動的に認識するためにシーンコンテキストが重要な情報を提供することを示す。
論文 参考訳(メタデータ) (2020-03-30T12:38:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。