論文の概要: Donate or Create? Comparing Data Collection Strategies for Emotion-labeled Multimodal Social Media Posts
- arxiv url: http://arxiv.org/abs/2505.24427v1
- Date: Fri, 30 May 2025 10:07:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.89538
- Title: Donate or Create? Comparing Data Collection Strategies for Emotion-labeled Multimodal Social Media Posts
- Title(参考訳): 寄付か創造か : 感情ラベル付きマルチモーダルソーシャルメディア投稿におけるデータ収集戦略の比較
- Authors: Christopher Bagdon, Aidan Combs, Carina Silberer, Roman Klinger,
- Abstract要約: 感情をラベル付けしたマルチモーダルなソーシャルメディア投稿を,研究によって作成され,本物のソーシャルメディア投稿と比較した。
本物の投稿に比べて、研究によって作成された投稿は長く、テキストに頼り、感情表現に画像に頼らないことがわかりました。
- 参考スコア(独自算出の注目度): 10.604607292133101
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Accurate modeling of subjective phenomena such as emotion expression requires data annotated with authors' intentions. Commonly such data is collected by asking study participants to donate and label genuine content produced in the real world, or create content fitting particular labels during the study. Asking participants to create content is often simpler to implement and presents fewer risks to participant privacy than data donation. However, it is unclear if and how study-created content may differ from genuine content, and how differences may impact models. We collect study-created and genuine multimodal social media posts labeled for emotion and compare them on several dimensions, including model performance. We find that compared to genuine posts, study-created posts are longer, rely more on their text and less on their images for emotion expression, and focus more on emotion-prototypical events. The samples of participants willing to donate versus create posts are demographically different. Study-created data is valuable to train models that generalize well to genuine data, but realistic effectiveness estimates require genuine data.
- Abstract(参考訳): 感情表現のような主観的現象の正確なモデリングには、著者の意図に注釈を付けたデータが必要である。
一般に、そのようなデータは、研究参加者に、現実世界で制作された本物のコンテンツを寄付し、ラベル付けするよう依頼したり、研究中に特定のラベルに適合したコンテンツを作成することで収集される。
参加者にコンテンツ作成を求めるのは、実装が簡単で、データ提供よりもプライバシーを侵害するリスクが少ないことが多い。
しかし、研究によって作成されたコンテンツが本物のコンテンツとどのように異なるか、モデルにどのように影響するかは明らかでない。
我々は、感情にラベル付けされた研究によって作成された、本物のマルチモーダルなソーシャルメディア投稿を収集し、モデルパフォーマンスを含むいくつかの次元でそれらを比較した。
本物の投稿に比べて、研究によって作成された投稿は長く、テキストに頼りやすく、感情表現のイメージに頼らず、感情の原型的な出来事に集中していることがわかった。
寄付と投稿の作成を希望する参加者のサンプルは、人口統計学的に異なる。
学習によって作成されたデータは、真のデータによく一般化するモデルを訓練するのには価値があるが、現実的な有効性推定には真のデータが必要である。
関連論文リスト
- iNews: A Multimodal Dataset for Modeling Personalized Affective Responses to News [25.367927300697424]
iNewsは、ニュースの見出しに対する主観的な感情的な反応をキャプチャする新しいデータセットだ。
当社のデータセットは、2,899件のマルチモーダルなFacebookニュース投稿を対象とした291件の英国人参加者のアノテーションで構成されている。
論文 参考訳(メタデータ) (2025-03-05T10:09:53Z) - Isolating authorship from content with semantic embeddings and contrastive learning [49.15148871877941]
作者は内部にスタイルとコンテンツが絡み合っている。
本稿では,意味的類似性モデルを用いて合成的に生成した強みを付加したコントラスト学習手法を提案する。
この切り離し技術は、コンテンツ埋め込み空間をスタイル埋め込み空間から遠ざけることを目的としており、スタイル埋め込みをより情報伝達する。
論文 参考訳(メタデータ) (2024-11-27T16:08:46Z) - Boosting Semi-Supervised Scene Text Recognition via Viewing and Summarizing [71.29488677105127]
既存のシーンテキスト認識(STR)手法は、特に芸術的で歪んだ文字に対して、挑戦的なテキストを認識するのに苦労している。
人的コストを伴わずに、合成データと実際のラベルなしデータを活用して、対照的な学習ベースのSTRフレームワークを提案する。
本手法は,共通ベンチマークとUnion14M-Benchmarkで平均精度94.7%,70.9%のSOTA性能を実現する。
論文 参考訳(メタデータ) (2024-11-23T15:24:47Z) - Implicit Design Choices and Their Impact on Emotion Recognition Model
Development and Evaluation [5.534160116442057]
感情の主観性は、正確で堅牢な計算モデルを開発する上で大きな課題を生じさせる。
この論文は、多様なデータセットの収集から始まる感情認識の批判的な側面を調べる。
非表現的トレーニングデータの課題に対処するため、この研究はマルチモーダルストレス感情データセットを収集する。
論文 参考訳(メタデータ) (2023-09-06T02:45:42Z) - Harnessing the Power of Text-image Contrastive Models for Automatic
Detection of Online Misinformation [50.46219766161111]
誤情報識別の領域における構成的学習を探求する自己学習モデルを構築した。
本モデルでは、トレーニングデータが不十分な場合、非マッチング画像-テキストペア検出の優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-19T02:53:59Z) - Automatically Classifying Emotions based on Text: A Comparative
Exploration of Different Datasets [0.0]
関連文献で最近紹介された3つのデータセットに注目した。
従来型および最先端のディープラーニングモデルの性能について、データに異なる特性が存在する場合について検討する。
実験により,RoBERTaのような最先端モデルがすべてのケースで最高の性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-02-28T16:34:55Z) - Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - A cross-corpus study on speech emotion recognition [29.582678406878568]
本研究では,行動感情から学習した情報が,自然感情の検出に有用かどうかを検討する。
成人英語の4つのデータセットは、行動的、誘惑的、自然な感情をカバーしている。
性能劣化を正確に調査するための最先端モデルを提案する。
論文 参考訳(メタデータ) (2022-07-05T15:15:22Z) - Perceptual Score: What Data Modalities Does Your Model Perceive? [73.75255606437808]
モデルが入力特徴の異なる部分集合に依存する度合いを評価する指標である知覚スコアを導入する。
近年,視覚的質問応答に対するマルチモーダルモデルでは,前者よりも視覚的データを知覚しにくい傾向がみられた。
知覚スコアを使用することで、スコアをデータサブセットのコントリビューションに分解することで、モデルのバイアスを分析することもできる。
論文 参考訳(メタデータ) (2021-10-27T12:19:56Z) - Like Article, Like Audience: Enforcing Multimodal Correlations for
Disinformation Detection [20.394457328537975]
ユーザ生成コンテンツとユーザ共有コンテンツの相関を利用して、オンラインニュース記事の偽情報を検出する。
偽情報検出のためのマルチモーダル学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-08-31T14:50:16Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。