論文の概要: Regressor-Guided Image Editing Regulates Emotional Response to Reduce Online Engagement
- arxiv url: http://arxiv.org/abs/2501.12289v1
- Date: Tue, 21 Jan 2025 16:59:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:24:02.047970
- Title: Regressor-Guided Image Editing Regulates Emotional Response to Reduce Online Engagement
- Title(参考訳): Reressor-Guided Image Editingはオンラインエンゲージメントを減らすために感情反応を調節する
- Authors: Christoph Gebhardt, Robin Willardt, Seyedmorteza Sadat, Chih-Wei Ning, Andreas Brombach, Jie Song, Otmar Hilliges, Christian Holz,
- Abstract要約: 本稿では,イメージの感情的影響の低減を目的とした3つの回帰型画像編集手法を提案する。
本研究は,視覚的品質を維持しつつ,画像の感情特性を効果的に変化させることができることを示す。
行動学的研究の結果、拡散に基づくアプローチのみが視聴者の感情反応の変化をうまく引き起こすことが判明した。
- 参考スコア(独自算出の注目度): 40.65885791860718
- License:
- Abstract: Emotions are known to mediate the relationship between users' content consumption and their online engagement, with heightened emotional intensity leading to increased engagement. Building on this insight, we propose three regressor-guided image editing approaches aimed at diminishing the emotional impact of images. These include (i) a parameter optimization approach based on global image transformations known to influence emotions, (ii) an optimization approach targeting the style latent space of a generative adversarial network, and (iii) a diffusion-based approach employing classifier guidance and classifier-free guidance. Our findings demonstrate that approaches can effectively alter the emotional properties of images while maintaining high visual quality. Optimization-based methods primarily adjust low-level properties like color hues and brightness, whereas the diffusion-based approach introduces semantic changes, such as altering appearance or facial expressions. Notably, results from a behavioral study reveal that only the diffusion-based approach successfully elicits changes in viewers' emotional responses while preserving high perceived image quality. In future work, we will investigate the impact of these image adaptations on internet user behavior.
- Abstract(参考訳): 感情は、ユーザのコンテンツ消費とオンラインエンゲージメントの関係を仲介することが知られており、感情の強さが増してエンゲージメントが増大する。
この知見に基づいて,画像の感情的影響の低減を目的とした3つの回帰型画像編集手法を提案する。
以下を含む。
(i)感情に影響を及ぼす大域的な画像変換に基づくパラメータ最適化手法。
二 生成的対向ネットワークのスタイル潜在空間を対象とする最適化手法及び
(三)分類者指導と分類者無指導を併用した拡散的アプローチ。
本研究は,視覚的品質を維持しつつ,画像の感情特性を効果的に変化させることができることを示す。
最適化に基づく手法は、主にカラーヒューズや明るさのような低レベルな特性を調整するが、拡散に基づく手法は外観や表情の変化などの意味的変化を導入する。
特に、行動学的研究の結果、拡散に基づくアプローチのみが、高い知覚的イメージ品質を維持しながら、視聴者の感情的反応の変化をうまく引き起こすことが判明した。
今後の課題として,これらの画像適応がインターネットユーザの行動に与える影響について検討する。
関連論文リスト
- Data Augmentation via Latent Diffusion for Saliency Prediction [67.88936624546076]
残差予測モデルはラベル付きデータの限られた多様性と量によって制約される。
本研究では,実世界のシーンの複雑さと変動性を保ちながら,自然画像の編集を行うディープ・サリエンシ・予測のための新しいデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2024-09-11T14:36:24Z) - Neural Additive Image Model: Interpretation through Interpolation [0.0]
本稿では,ニューラル加算モデルと拡散オートエンコーダを用いた全体論的モデリング手法を提案する。
本手法は, アブレーション実験において, 複雑な画像効果を正確に同定できることを実証する。
提案モデルの実用性をさらに実証するため,ホスト画像内の特徴的特徴と属性がAirbnbレンタルの価格にどのように影響するかをケーススタディで検討した。
論文 参考訳(メタデータ) (2024-03-06T16:46:07Z) - EmoGen: Emotional Image Content Generation with Text-to-Image Diffusion
Models [11.901294654242376]
本稿では,感情カテゴリを与えられた意味的明瞭で感情に忠実な画像を生成するための新しいタスクである感情画像コンテンツ生成(EICG)を紹介する。
具体的には、感情空間を提案し、それを強力なコントラスト言語-画像事前学習(CLIP)空間と整合させるマッピングネットワークを構築する。
本手法は,最先端のテクスト・ツー・イメージ・アプローチを定量的・質的に上回る。
論文 参考訳(メタデータ) (2024-01-09T15:23:21Z) - Impressions: Understanding Visual Semiotics and Aesthetic Impact [66.40617566253404]
画像のセミオティックスを調べるための新しいデータセットであるImpressionsを提示する。
既存のマルチモーダル画像キャプションと条件付き生成モデルは、画像に対する可視的応答をシミュレートするのに苦労していることを示す。
このデータセットは、微調整と少数ショット適応により、画像の印象や美的評価をモデル化する能力を大幅に改善する。
論文 参考訳(メタデータ) (2023-10-27T04:30:18Z) - StyleEDL: Style-Guided High-order Attention Network for Image Emotion
Distribution Learning [69.06749934902464]
StyleEDLと呼ばれる画像感情分布学習のためのスタイル誘導型高次アテンションネットワークを提案する。
StyleEDLは視覚内容の階層的スタイリスティック情報を探索することにより、画像のスタイリスティックな表現を対話的に学習する。
さらに、コンテンツ依存の感情表現を動的に生成するスタイリスティックなグラフ畳み込みネットワークを導入する。
論文 参考訳(メタデータ) (2023-08-06T03:22:46Z) - An Attribute-Aligned Strategy for Learning Speech Representation [57.891727280493015]
属性選択機構によってこれらの問題に柔軟に対処できる音声表現を導出する属性整合学習戦略を提案する。
具体的には、音声表現を属性依存ノードに分解する層式表現可変オートエンコーダ(LR-VAE)を提案する。
提案手法は,IDのないSER上での競合性能と,無感情SV上でのより良い性能を実現する。
論文 参考訳(メタデータ) (2021-06-05T06:19:14Z) - Acted vs. Improvised: Domain Adaptation for Elicitation Approaches in
Audio-Visual Emotion Recognition [29.916609743097215]
一般化された感情認識システムの開発における主な課題は、ラベル付きデータの不足とゴールドスタンダード参照の欠如である。
本研究では,感情誘発アプローチをドメイン知識とみなし,感情発話におけるドメイン伝達学習技術を探求する。
論文 参考訳(メタデータ) (2021-04-05T15:59:31Z) - Enjoy Your Editing: Controllable GANs for Image Editing via Latent Space
Navigation [136.53288628437355]
コントロール可能なセマンティックイメージ編集により、ユーザーはクリック数回で画像属性全体を変更できる。
現在のアプローチでは、絡み合った属性編集、グローバルなイメージアイデンティティの変更、フォトリアリズムの低下に悩まされることが多い。
本稿では,主に定性評価に焦点を当てた先行研究とは異なり,制御可能な編集性能を測定するための定量的評価手法を提案する。
論文 参考訳(メタデータ) (2021-02-01T21:38:36Z) - Disentangle Perceptual Learning through Online Contrastive Learning [16.534353501066203]
人間の視覚的知覚による現実的な結果の獲得は、画像変換タスクにおける中心的な関心事である。
本稿では,事前学習した分類ネットワークの特徴表現の中で,人間の視覚知覚に限定した次元しか関連していないことを論じる。
このような仮定の下で,提案したオンラインコントラスト学習を通じて,認識関連次元を表現から切り離そうとする。
論文 参考訳(メタデータ) (2020-06-24T06:48:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。