論文の概要: Towards Deeper Emotional Reflection: Crafting Affective Image Filters with Generative Priors
- arxiv url: http://arxiv.org/abs/2512.17376v1
- Date: Fri, 19 Dec 2025 09:24:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.323667
- Title: Towards Deeper Emotional Reflection: Crafting Affective Image Filters with Generative Priors
- Title(参考訳): 感情反射の深化に向けて:生成優先要素を用いた影響のある画像フィルタの構築
- Authors: Peixuan Zhang, Shuchen Weng, Jiajun Tang, Si Li, Boxin Shi,
- Abstract要約: ソーシャルメディアプラットフォームでは、ユーザーは添付画像でテキストを投稿することで感情を表現することができる。
本稿では,テキストから視覚的に吸収された感情を視覚的に一致した画像に反映することを目的としたAffective Image Filter (AIF)タスクを提案する。
- 参考スコア(独自算出の注目度): 60.113589550498176
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social media platforms enable users to express emotions by posting text with accompanying images. In this paper, we propose the Affective Image Filter (AIF) task, which aims to reflect visually-abstract emotions from text into visually-concrete images, thereby creating emotionally compelling results. We first introduce the AIF dataset and the formulation of the AIF models. Then, we present AIF-B as an initial attempt based on a multi-modal transformer architecture. After that, we propose AIF-D as an extension of AIF-B towards deeper emotional reflection, effectively leveraging generative priors from pre-trained large-scale diffusion models. Quantitative and qualitative experiments demonstrate that AIF models achieve superior performance for both content consistency and emotional fidelity compared to state-of-the-art methods. Extensive user study experiments demonstrate that AIF models are significantly more effective at evoking specific emotions. Based on the presented results, we comprehensively discuss the value and potential of AIF models.
- Abstract(参考訳): ソーシャルメディアプラットフォームでは、ユーザーは添付画像でテキストを投稿することで感情を表現することができる。
本稿では、テキストから視覚的に吸収された感情を視覚的に一致した画像に反映し、感情的に説得力のある結果を生み出すことを目的としたAffective Image Filter(AIF)タスクを提案する。
まず、AIFデータセットとAIFモデルの定式化を紹介する。
次に,マルチモーダルトランスアーキテクチャに基づく最初の試みとしてAIF-Bを提案する。
その後、AIF-Dを深い感情反射に対するAIF-Bの拡張として提案し、事前学習された大規模拡散モデルから生成した先行情報を効果的に活用する。
定量的および定性的な実験により、AIFモデルは、最先端の手法と比較して、コンテンツ一貫性と感情的忠実性の両方において優れた性能を発揮することが示された。
広範囲にわたるユーザー研究実験により、AIFモデルは特定の感情を誘発するのに著しく効果的であることが示された。
提案した結果に基づいて,AIFモデルの価値とポテンシャルを包括的に論じる。
関連論文リスト
- Smile on the Face, Sadness in the Eyes: Bridging the Emotion Gap with a Multimodal Dataset of Eye and Facial Behaviors [49.833812625518554]
視覚行動は重要な感情的手がかりとして導入され、視覚行動支援マルチモーダル感情認識データセットを構築する。
実験では,EMERデータセットの総合的な評価のために,7つのマルチモーダルベンチマークプロトコルを導入する。
その結果、EMERTは、他の最先端のマルチモーダル手法よりも優れた性能を示し、ロバストERに対する目の動きのモデリングの重要性を明らかにした。
論文 参考訳(メタデータ) (2025-12-18T12:52:55Z) - Smile upon the Face but Sadness in the Eyes: Emotion Recognition based on Facial Expressions and Eye Behaviors [63.194053817609024]
視覚行動は、視覚行動支援型マルチモーダル感情認識データセットを作成するための重要な感情的手がかりとなる。
EMERデータセットに感情認識(ER)と表情認識(FER)の両方のアノテーションを初めて提供する。
具体的には、ERとFERの両方のパフォーマンスを同時に向上する新しいEMERTアーキテクチャを設計する。
論文 参考訳(メタデータ) (2024-11-08T04:53:55Z) - Adaptive Mixed-Scale Feature Fusion Network for Blind AI-Generated Image Quality Assessment [13.998206803073481]
本稿では,新しい画像品質評価ネットワークであるAMFF-Netを提案する。
AMFF-Netは画像のスケールアップとスケールダウンを行い、入力としてスケールされた画像とオリジナルサイズの画像を取り込み、マルチスケールの特徴を得る。
我々は3つのAGI品質評価データベースについて広範な実験を行い、実験の結果、AMFF-Netは9つの最先端の盲点IQA法よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2024-04-23T16:02:33Z) - Music Recommendation Based on Facial Emotion Recognition [0.0]
本稿では,GRAD-CAMを用いた感情認識,音楽レコメンデーション,説明可能なAIの統合によるユーザエクスペリエンス向上のための包括的アプローチを提案する。
提案手法は、表情認識データセットに基づいて訓練されたResNet50モデルを用いて、様々な感情を表現している個人の実像からなる。
論文 参考訳(メタデータ) (2024-04-06T15:14:25Z) - Text-to-Image Diffusion Models are Great Sketch-Photo Matchmakers [120.49126407479717]
本稿では,ゼロショットスケッチに基づく画像検索(ZS-SBIR)のためのテキスト・画像拡散モデルについて検討する。
スケッチと写真の間のギャップをシームレスに埋めるテキストと画像の拡散モデルの能力。
論文 参考訳(メタデータ) (2024-03-12T00:02:03Z) - High-Level Context Representation for Emotion Recognition in Images [4.987022981158291]
画像から高レベルな文脈表現を抽出する手法を提案する。
このモデルは、この表現と感情を関連付けるために、1つのキューと1つのエンコードストリームに依存している。
我々のアプローチは従来のモデルよりも効率的であり、感情認識に関連する現実の問題に対処するために容易に展開できる。
論文 参考訳(メタデータ) (2023-05-05T13:20:41Z) - Affective Image Content Analysis: Two Decades Review and New
Perspectives [132.889649256384]
我々は,過去20年間の情緒的イメージコンテンツ分析(AICA)の発展を包括的にレビューする。
我々は、感情的ギャップ、知覚主観性、ラベルノイズと欠如という3つの主要な課題に関して、最先端の手法に焦点を当てる。
画像の内容やコンテキスト理解,グループ感情クラスタリング,ビューアーとイメージのインタラクションなど,今後の課題や研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-06-30T15:20:56Z) - Interpretable Image Emotion Recognition: A Domain Adaptation Approach Using Facial Expressions [11.808447247077902]
本稿では,ジェネリックイメージ中の感情を識別するための特徴に基づくドメイン適応手法を提案する。
これは、事前訓練されたモデルと、画像感情認識(IER)のための十分に注釈付けされたデータセットの限られた可用性の課題に対処する。
提案されたIERシステムは、IAPSaデータセットの61.86%、ArtPhotoデータセットの62.47、FIデータセットの70.78%、EMOTICデータセットの59.72%の感情分類精度を示した。
論文 参考訳(メタデータ) (2020-11-17T02:55:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。