論文の概要: Video-Mediated Emotion Disclosure: Expressions of Fear, Sadness, and Joy by People with Schizophrenia on YouTube
- arxiv url: http://arxiv.org/abs/2506.10932v2
- Date: Wed, 18 Jun 2025 22:19:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 14:57:52.306763
- Title: Video-Mediated Emotion Disclosure: Expressions of Fear, Sadness, and Joy by People with Schizophrenia on YouTube
- Title(参考訳): YouTube上の統合失調症患者の恐怖、悲しみ、喜びの表現
- Authors: Jiaying Lizzy Liu, Yan Zhang,
- Abstract要約: 統合失調症患者が作成した200本のYouTube動画を分析した。
分析の結果,言語と視覚の両方で多様な感情開示の実践が明らかとなった。
環境設定を含む視覚要素の意図的な構築は、より支援的かつ活発な視聴者反応を促進することが判明した。
- 参考スコア(独自算出の注目度): 2.767257448554864
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Individuals with schizophrenia frequently experience intense emotions and often turn to vlogging as a medium for emotional expression. While previous research has predominantly focused on text based disclosure, little is known about how individuals construct narratives around emotions and emotional experiences in video blogs. Our study addresses this gap by analyzing 200 YouTube videos created by individuals with schizophrenia. Drawing on media research and self presentation theories, we developed a visual analysis framework to disentangle these videos. Our analysis revealed diverse practices of emotion disclosure through both verbal and visual channels, highlighting the dynamic interplay between these modes of expression. We found that the deliberate construction of visual elements, including environmental settings and specific aesthetic choices, appears to foster more supportive and engaged viewer responses. These findings underscore the need for future large scale quantitative research examining how visual features shape video mediated communication on social media platforms. Such investigations would inform the development of care centered video sharing platforms that better support individuals managing illness experiences.
- Abstract(参考訳): 統合失調症の人は、しばしば激しい感情を経験し、しばしば感情表現の媒体としてヴログングに目を向ける。
これまでの研究は、主にテキストベースの開示に焦点を当ててきたが、ビデオブログにおける感情や感情に関する物語をどのように構築するかは、ほとんど分かっていない。
我々の研究は、統合失調症患者によって作られた200本のYouTubeビデオを解析することで、このギャップに対処する。
メディア研究と自己提示理論に基づいて,これらの映像をアンタングルする視覚分析フレームワークを開発した。
分析の結果、言語と視覚の両方のチャンネルを通して感情開示の多様な実践が明らかとなり、これらの表現のモード間の動的相互作用が強調された。
環境設定や特定の審美的選択を含む視覚要素の意図的な構成は、より支援的かつ活発な視聴者反応を促進することが判明した。
これらの知見は、ソーシャルメディアプラットフォーム上での視覚的特徴とコミュニケーションをどのように形成するかを、将来の大規模定量的研究の必要性を浮き彫りにしている。
このような調査は、ケア中心のビデオ共有プラットフォームの開発に役立てる。
関連論文リスト
- Saliency-guided Emotion Modeling: Predicting Viewer Reactions from Video Stimuli [0.0]
本稿では,2つの重要な特徴を抽出し,感情予測のための新しい唾液量に基づくアプローチを提案する。
HD2SサリエンシモデルとOpenFace顔動作単位分析を用いて,映像のサリエンシと視聴者の感情の関係について検討した。
論文 参考訳(メタデータ) (2025-05-25T14:52:36Z) - Displaying Fear, Sadness, and Joy in Public: Schizophrenia Vloggers' Video Narration of Emotion and Online Care-Seeking [8.640838598568605]
重度の精神疾患(SMI)を持つ人は、感情の開示やオンラインサポートを探すための真正な媒体としてヴログングに目を向ける傾向にある。
我々の研究では、統合失調症vloggersが作成した401本のYouTubeビデオを分析し、露骨な表現やストーリーテリングによる言葉によるナレーションを通じて、vloggersの恐怖、悲しみ、喜びを明らかにした。
特に、オーディエンスエンゲージメントにおける「視覚的アピール格差」が明らかとなり、視覚的にアピールするビデオは、はるかに多くのビュー、お気に入り、コメントを受け取るようになった。
論文 参考訳(メタデータ) (2025-02-28T02:23:27Z) - How Would The Viewer Feel? Estimating Wellbeing From Video Scenarios [73.24092762346095]
情緒応答と主観的幸福感に注釈を付けた6万本以上のビデオを備えた大規模データセットを2つ導入した。
Video Cognitive Empathyデータセットには、微粒な感情応答の分布のためのアノテーションが含まれており、モデルが感情状態の詳細な理解を得ることができる。
Video to Valenceデータセットには、ビデオ間の相対的な快適性のアノテーションが含まれている。
論文 参考訳(メタデータ) (2022-10-18T17:58:25Z) - Affection: Learning Affective Explanations for Real-World Visual Data [50.28825017427716]
我々は,85,007枚の公開画像に対して,感情反応と自由形式のテキスト説明を含む大規模データセットを研究コミュニティに導入し,共有する。
本研究は, 被写体集団に大きな支持を得て, 潜在的に有意な感情反応をとらえる上で, 重要な共通基盤があることを示唆する。
私たちの研究は、より豊かで、より人間中心で、感情に敏感な画像分析システムへの道を開くものです。
論文 参考訳(メタデータ) (2022-10-04T22:44:17Z) - Predicting emotion from music videos: exploring the relative
contribution of visual and auditory information to affective responses [0.0]
本稿では、感情的マルチメディアコンテンツ分析のための新しいデータセットであるMusicVideos(MuVi)を紹介する。
データは、音楽、視覚、オーディオヴィジュアルの3つの条件で、参加者に音楽映像を提示することで収集された。
論文 参考訳(メタデータ) (2022-02-19T07:36:43Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Affective Image Content Analysis: Two Decades Review and New
Perspectives [132.889649256384]
我々は,過去20年間の情緒的イメージコンテンツ分析(AICA)の発展を包括的にレビューする。
我々は、感情的ギャップ、知覚主観性、ラベルノイズと欠如という3つの主要な課題に関して、最先端の手法に焦点を当てる。
画像の内容やコンテキスト理解,グループ感情クラスタリング,ビューアーとイメージのインタラクションなど,今後の課題や研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-06-30T15:20:56Z) - Audio-Driven Emotional Video Portraits [79.95687903497354]
Emotional Video Portraits(EVP)は、オーディオによって駆動される鮮やかな感情的なダイナミクスで高品質のビデオポートレートを合成するシステムです。
具体的には,音声を2つの分離空間に分解するクロスリコンストラクテッド感情不等角化手法を提案する。
ゆがんだ特徴によって、動的2D感情的な顔のランドマークは推定することができます。
次に,最終的な高品質映像画像を生成するために,ターゲット適応型顔合成手法を提案する。
論文 参考訳(メタデータ) (2021-04-15T13:37:13Z) - Unboxing Engagement in YouTube Influencer Videos: An Attention-Based Approach [0.3686808512438362]
言葉(文章)による「言えること」は、映像(映像)や音響(オーディオ)による映像エンゲージメントの予測よりも重要である。
長文YouTubeインフルエンサービデオの非構造化データを解析する。
論文 参考訳(メタデータ) (2020-12-22T19:32:52Z) - A Blast From the Past: Personalizing Predictions of Video-Induced
Emotions using Personal Memories as Context [5.1314912554605066]
ビデオトリガーされた記憶を記述したテキストの自動解析は、視聴者の感情的反応の変動を考慮できることを示す。
パーソナライズされた文脈における感情的ビデオ分析の自動化に対する技術アプローチの状況改善におけるこれらの知見の関連性について論じる。
論文 参考訳(メタデータ) (2020-08-27T13:06:10Z) - "Notic My Speech" -- Blending Speech Patterns With Multimedia [65.91370924641862]
音声認識と理解における視点依存と視覚的重要性の両方をモデル化するための視点時間的注意機構を提案する。
提案手法は, ビセム誤差率において, 既存の作業よりも4.99%優れていた。
モデルでは,多視点音声に対する理解と人間の知覚との間に強い相関関係があることが示されている。
論文 参考訳(メタデータ) (2020-06-12T06:51:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。