論文の概要: Free Energy-Based Modeling of Emotional Dynamics in Video Advertisements
- arxiv url: http://arxiv.org/abs/2601.00812v1
- Date: Mon, 22 Dec 2025 06:51:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-11 18:48:17.51356
- Title: Free Energy-Based Modeling of Emotional Dynamics in Video Advertisements
- Title(参考訳): 自由エネルギーに基づく映像中の感情動態のモデリング
- Authors: Takashi Ushio, Kazuhiro Onishi, Hideyoshi Yanagisawa,
- Abstract要約: 広告ビデオのシーンレベルの表現機能から,「不快感」「サプライズ」「居住感」を定量化した。
この作業は、より広い範囲の表現要素を統合し、主観的評価を通じてアプローチを検証することで拡張することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emotional responses during advertising video viewing are recognized as essential for understanding media effects because they have influenced attention, memory, and purchase intention. To establish a methodological basis for explainable emotion estimation without relying on external information such as physiological signals or subjective ratings, we have quantified "pleasantness," "surprise," and "habituation" solely from scene-level expression features of advertising videos, drawing on the free energy(FE) principle, which has provided a unified account of perception, learning, and behavior. In this framework, Kullback-Leibler divergence (KLD) has captured prediction error, Bayesian surprise (BS) has captured belief updates, and uncertainty (UN) has reflected prior ambiguity, and together they have formed the core components of FE. Using 1,059 15 s food video advertisements, the experiments have shown that KLD has reflected "pleasantness" associated with brand presentation, BS has captured "surprise" arising from informational complexity, and UN has reflected "surprise" driven by uncertainty in element types and spatial arrangements, as well as by the variability and quantity of presented elements. This study also identified three characteristic emotional patterns, namely uncertain stimulus, sustained high emotion, and momentary peak and decay, demonstrating the usefulness of the proposed method. Robustness across nine hyperparameter settings and generalization tests with six types of Japanese advertising videos (three genres and two durations) confirmed that these tendencies remained stable. This work can be extended by integrating a wider range of expression elements and validating the approach through subjective ratings, ultimately guiding the development of technologies that can support the creation of more engaging advertising videos.
- Abstract(参考訳): 広告ビデオ視聴中の感情反応は、注意、記憶、購入意図に影響を与えるため、メディア効果を理解するのに不可欠であると認識されている。
生理的信号や主観的評価などの外部情報に頼ることなく、説明可能な感情推定のための方法論的基盤を確立するために、我々は、認識、学習、行動の統一的な説明を提供する自由エネルギー(FE)原理に基づいて、広告ビデオのシーンレベルの表現特徴のみから「不快」、「サプライズ」、そして「居住」を定量化した。
この枠組みでは、KLD(Kulback-Leibler divergence)は予測誤差を捉え、BS(Bayesian surprise)は信念の更新を捉え、UN(University)は以前の曖昧さを反映し、共にFEのコアコンポーネントを形成している。
1,059件の食品ビデオ広告を用いて、KLDはブランドプレゼンテーションに関連する「不快」を反映し、BSは情報複雑さから生じる「サプライズ」を捉え、国連は「サプライズ」を要素タイプや空間配置の不確実性、および提示要素の多様性と量によって反映していることを示した。
本研究は,3つの特徴的感情パターン,すなわち不確実な刺激,持続的な高情動,瞬間的なピークと崩壊を同定し,提案手法の有用性を実証した。
9つのハイパーパラメータ設定と6種類の日本語広告ビデオ(3つのジャンルと2つの期間)による一般化テストによるロバスト性は,これらの傾向が安定していることを確認した。
この作業は、幅広い表現要素を統合し、主観的評価を通じてアプローチを検証することで拡張することができ、最終的にはより魅力的な広告ビデオの作成を支援する技術の開発を導くことができる。
関連論文リスト
- Emotion-Coherent Reasoning for Multimodal LLMs via Emotional Rationale Verifier [53.55996102181836]
本稿では,感情関係検証器 (ERV) と説明リワードを提案する。
本手法は,対象感情と明確に一致した推論をモデルに導出する。
我々のアプローチは、説明と予測の整合性を高めるだけでなく、MLLMが感情的に一貫性があり、信頼できる対話を実現するのにも役立ちます。
論文 参考訳(メタデータ) (2025-10-27T16:40:17Z) - DeceptionBench: A Comprehensive Benchmark for AI Deception Behaviors in Real-world Scenarios [57.327907850766785]
現実的な現実のシナリオにまたがる騙しのキャラクタリゼーションは未解明のままである。
DeceptionBenchは、さまざまなドメインにまたがる認知傾向を体系的に評価する最初のベンチマークです。
本研究は,本質的な側面から,ユーザ満足度を優先する自己関心のエゴスティックな傾向を示すモデルや,サイコファンティックな行動を示すモデルについて検討する。
実世界のフィードバックダイナミクスのより現実的なシミュレーションを構築するために,持続的マルチターン相互作用ループを組み込んだ。
論文 参考訳(メタデータ) (2025-10-17T10:14:26Z) - RoboView-Bias: Benchmarking Visual Bias in Embodied Agents for Robotic Manipulation [67.38036090822982]
ロボット操作における視覚バイアスの定量化を目的とした,最初のベンチマークであるRoboView-Biasを提案する。
我々は、個々の視覚的要因とその相互作用によって引き起こされるバイアスの堅牢な測定を可能にする2,127のタスクインスタンスを作成します。
本研究は,視覚バイアスの系統的解析が,安全で信頼性の高い汎用的なエンボディエージェントの開発に必須であることを示す。
論文 参考訳(メタデータ) (2025-09-26T13:53:25Z) - Towards Context-Aware Emotion Recognition Debiasing from a Causal Demystification Perspective via De-confounded Training [14.450673163785094]
文脈認識感情認識(CAER)は、対象者の感情を認識するための貴重な意味的手がかりを提供する。
現在のアプローチは、コンテキストから知覚的に重要な表現を抽出する洗練された構造を設計することに集中している。
共同設立者を非難するためのCCIM(Contextual Causal Intervention Module)を提案する。
論文 参考訳(メタデータ) (2024-07-06T05:29:02Z) - Towards A Robust Group-level Emotion Recognition via Uncertainty-Aware Learning [27.284076257222942]
グループレベルの感情認識(GER)は、人間の行動分析の不可分な部分である。
GERのためのより堅牢な表現を抽出する不確実性認識学習(UAL)手法を提案する。
我々は,強騒音に対するモデルの頑健性を高めるために,画像強調モジュールを開発した。
論文 参考訳(メタデータ) (2023-10-06T15:05:41Z) - Memory in Plain Sight: Surveying the Uncanny Resemblances of Associative Memories and Diffusion Models [65.08133391009838]
拡散モデル(DM)の生成プロセスは、最近、多くのAI生成ベンチマークに最先端を設定した。
エネルギーに基づく連想記憶(AM)の分野からのメモリ検索の数学的言語を用いたDM記述のための新しい視点を導入する。
我々は,AMから期待される経験的行動を示すDMを記録できることの証拠として,DMをエネルギーベースメモリの一種として理解することによって明らかにされる研究の機会について論じる。
論文 参考訳(メタデータ) (2023-09-28T17:57:09Z) - Affective Image Content Analysis: Two Decades Review and New
Perspectives [132.889649256384]
我々は,過去20年間の情緒的イメージコンテンツ分析(AICA)の発展を包括的にレビューする。
我々は、感情的ギャップ、知覚主観性、ラベルノイズと欠如という3つの主要な課題に関して、最先端の手法に焦点を当てる。
画像の内容やコンテキスト理解,グループ感情クラスタリング,ビューアーとイメージのインタラクションなど,今後の課題や研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-06-30T15:20:56Z) - Affect2MM: Affective Analysis of Multimedia Content Using Emotion
Causality [84.69595956853908]
本稿では,マルチメディアコンテンツを対象とした時系列感情予測学習手法であるAffect2MMを提案する。
私たちの目標は、現実の人間中心の状況や行動でキャラクターが描く様々な感情を自動的に捉えることです。
論文 参考訳(メタデータ) (2021-03-11T09:07:25Z) - Unboxing Engagement in YouTube Influencer Videos: An Attention-Based Approach [0.3686808512438362]
言葉(文章)による「言えること」は、映像(映像)や音響(オーディオ)による映像エンゲージメントの予測よりも重要である。
長文YouTubeインフルエンサービデオの非構造化データを解析する。
論文 参考訳(メタデータ) (2020-12-22T19:32:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。