論文の概要: Visually grounded emotion regulation via diffusion models and user-driven reappraisal
- arxiv url: http://arxiv.org/abs/2507.10861v1
- Date: Mon, 14 Jul 2025 23:28:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:02.920752
- Title: Visually grounded emotion regulation via diffusion models and user-driven reappraisal
- Title(参考訳): 拡散モデルとユーザによる再評価による視覚的感情制御
- Authors: Edoardo Pinzuti, Oliver Tüscher, André Ferreira Castro,
- Abstract要約: 本稿では,大規模テキスト・画像拡散モデルを感情制御プロセスに統合することにより,認知的再評価を視覚的に向上する新しい手法を提案する。
具体的には、ユーザが音声の再評価によって感情的に否定的なイメージを再解釈するシステムを提案する。
この生成変換は、元の刺激と構造的類似性を維持しつつ、ユーザーの再評価を視覚的にインスタンス化し、外部化し、規制意図を補強する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Cognitive reappraisal is a key strategy in emotion regulation, involving reinterpretation of emotionally charged stimuli to alter affective responses. Despite its central role in clinical and cognitive science, real-world reappraisal interventions remain cognitively demanding, abstract, and primarily verbal. This reliance on higher-order cognitive and linguistic processes is often impaired in individuals with trauma or depression, limiting the effectiveness of standard approaches. Here, we propose a novel, visually based augmentation of cognitive reappraisal by integrating large-scale text-to-image diffusion models into the emotional regulation process. Specifically, we introduce a system in which users reinterpret emotionally negative images via spoken reappraisals, which are transformed into supportive, emotionally congruent visualizations using stable diffusion models with a fine-tuned IP-adapter. This generative transformation visually instantiates users' reappraisals while maintaining structural similarity to the original stimuli, externalizing and reinforcing regulatory intent. To test this approach, we conducted a within-subject experiment (N = 20) using a modified cognitive emotion regulation (CER) task. Participants reappraised or described aversive images from the International Affective Picture System (IAPS), with or without AI-generated visual feedback. Results show that AI-assisted reappraisal significantly reduced negative affect compared to both non-AI and control conditions. Further analyses reveal that sentiment alignment between participant reappraisals and generated images correlates with affective relief, suggesting that multimodal coherence enhances regulatory efficacy. These findings demonstrate that generative visual input can support cogitive reappraisal and open new directions at the intersection of generative AI, affective computing, and therapeutic technology.
- Abstract(参考訳): 認知的再評価は感情の調節において重要な戦略であり、感情的な反応を変えるための感情的な刺激の再解釈を含む。
臨床および認知科学における中心的な役割にもかかわらず、現実世界の再評価の介入は認知的に要求され、抽象され、主に口頭で行われている。
この高次認知的および言語的プロセスへの依存は、トラウマやうつ病の患者にしばしば障害を与え、標準的なアプローチの有効性を制限している。
本稿では,大規模テキスト・画像拡散モデルを感情制御プロセスに組み込むことにより,認知的再評価を視覚的に向上させる新しい手法を提案する。
具体的には、ユーザが音声の再評価によって感情的に負の画像を再解釈するシステムを導入し、これをIP-adapterを微調整した安定拡散モデルを用いて、支持的、感情的に一致した可視化に変換する。
この生成変換は、元の刺激と構造的類似性を維持しつつ、ユーザーの再評価を視覚的にインスタンス化し、外部化し、規制意図を補強する。
このアプローチをテストするために, 修正認知感情制御(CER)タスクを用いて, 物体内実験(N = 20)を行った。
参加者はAIが生成した視覚フィードバックの有無に関わらず、IAPS(International Affective Picture System)からの逆画像を再評価または記述した。
その結果,非AIおよび制御条件と比較して,AIによる再評価は負の影響を有意に低減した。
さらに分析したところ、参加者の再評価と生成画像間の感情アライメントが情緒的救済と相関していることが明らかとなり、マルチモーダルコヒーレンスが規制効果を高めることが示唆された。
これらの結果から、生成的視覚入力は、生成的AI、感情コンピューティング、治療技術の交差点における、協調的再評価と新たな方向性を支援することができることが示された。
関連論文リスト
- R-CAGE: A Structural Model for Emotion Output Design in Human-AI Interaction [2.1828601975620257]
R-CAGEは、人間とAIの長期的な相互作用において、感情的な出力を再構築するための理論的枠組みである。
R-CAGEは、感情リズム、感覚強度、解釈能力を構造的に調節することにより、感情をパフォーマンス出力ではなく、持続可能なデザイン単位としてフレーム化する。
論文 参考訳(メタデータ) (2025-05-11T15:30:23Z) - A Cognitive Paradigm Approach to Probe the Perception-Reasoning Interface in VLMs [3.2228025627337864]
本稿では,視覚言語モデル(VLM)における知覚推論インタフェースを識別するための構造化評価フレームワークを提案する。
本稿では,人間の問題解決戦略を反映した3つの評価パラダイムを提案する。
このフレームワークを適用したCAは、リッチで独立に生成された記述を推論するために強力な言語モデルを活用し、新しい最先端(SOTA)パフォーマンスを実現することを実証する。
論文 参考訳(メタデータ) (2025-01-23T12:42:42Z) - Regressor-Guided Image Editing Regulates Emotional Response to Reduce Online Engagement [40.65885791860718]
本稿では,イメージの感情的影響の低減を目的とした3つの回帰型画像編集手法を提案する。
本研究は,視覚的品質を維持しつつ,画像の感情特性を効果的に変化させることができることを示す。
行動学的研究の結果、拡散に基づくアプローチのみが視聴者の感情反応の変化をうまく引き起こすことが判明した。
論文 参考訳(メタデータ) (2025-01-21T16:59:13Z) - Functional Graph Contrastive Learning of Hyperscanning EEG Reveals
Emotional Contagion Evoked by Stereotype-Based Stressors [1.8925617030516924]
本研究では,女性ペア間の協調的問題解決作業におけるステレオタイプベースストレス(SBS)の文脈に焦点を当てた。
本研究は、感情伝染の解明を通じて、その基盤となるメカニズムと効果を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2023-08-22T09:04:14Z) - A Hierarchical Regression Chain Framework for Affective Vocal Burst
Recognition [72.36055502078193]
本稿では,声帯からの感情認識のための連鎖回帰モデルに基づく階層的枠組みを提案する。
データスパシティの課題に対処するため、レイヤワイドおよび時間アグリゲーションモジュールを備えた自己教師付き学習(SSL)表現も使用しています。
提案されたシステムは、ACII Affective Vocal Burst (A-VB) Challenge 2022に参加し、「TWO」および「CULTURE」タスクで第1位となった。
論文 参考訳(メタデータ) (2023-03-14T16:08:45Z) - Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Affect-DML: Context-Aware One-Shot Recognition of Human Affect using
Deep Metric Learning [29.262204241732565]
既存の方法は、すべての関心の感情に注釈付きトレーニングの例として優先順位が与えられると仮定している。
我々は、文脈における感情のワンショット認識を概念化し、単一のサポートサンプルからより細かい粒子レベルの人間の影響状態を認識することを目的とした新しい問題である。
モデルの全変種は、ランダムなベースラインよりも明らかに優れており、セマンティックシーンのコンテキストを活用することで、学習された表現を一貫して改善している。
論文 参考訳(メタデータ) (2021-11-30T10:35:20Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。