論文の概要: The Value of Nothing: Multimodal Extraction of Human Values Expressed by TikTok Influencers
- arxiv url: http://arxiv.org/abs/2501.11770v1
- Date: Mon, 20 Jan 2025 22:21:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:26:00.587153
- Title: The Value of Nothing: Multimodal Extraction of Human Values Expressed by TikTok Influencers
- Title(参考訳): 無の価値:TikTokインフルエンサーが表現する人的価値のマルチモーダル抽出
- Authors: Alina Starovolsky-Shitrit, Alon Neduva, Naama Appel Doron, Ella Daniel, Oren Tsur,
- Abstract要約: 本稿では、子どもや青年をターゲットとしたオンラインインフルエンサーがアップロードしたTikTok映画から暗黙的な価値を抽出する。
我々は、何百ものTikTok映画のデータセットをキュレートし、Schwartz Theory of Personal Valuesに従って注釈を付けました。
この結果は、ビデオベースのソーシャルプラットフォームにおける影響力と価値伝達に関するさらなる研究の道を開くものである。
- 参考スコア(独自算出の注目度): 2.3592914313389253
- License:
- Abstract: Societal and personal values are transmitted to younger generations through interaction and exposure. Traditionally, children and adolescents learned values from parents, educators, or peers. Nowadays, social platforms serve as a significant channel through which youth (and adults) consume information, as the main medium of entertainment, and possibly the medium through which they learn different values. In this paper we extract implicit values from TikTok movies uploaded by online influencers targeting children and adolescents. We curated a dataset of hundreds of TikTok movies and annotated them according to the Schwartz Theory of Personal Values. We then experimented with an array of Masked and Large language model, exploring how values can be detected. Specifically, we considered two pipelines -- direct extraction of values from video and a 2-step approach in which videos are first converted to elaborated scripts and then values are extracted. Achieving state-of-the-art results, we find that the 2-step approach performs significantly better than the direct approach and that using a trainable Masked Language Model as a second step significantly outperforms a few-shot application of a number of Large Language Models. We further discuss the impact of fine-tuning and compare the performance of the different models on identification of values present or contradicted in the TikTok. Finally, we share the first values-annotated dataset of TikTok videos. Our results pave the way to further research on influence and value transmission in video-based social platforms.
- Abstract(参考訳): 社会的および個人的価値は、相互作用と露出を通じて若い世代に伝達される。
伝統的に、子供と青年は両親、教育者、または仲間から価値を学んだ。
今日、社会プラットフォームは若者(および大人)が情報を消費する重要なチャネルとして機能し、エンターテイメントのメインメディアとして、そしておそらく異なる価値を学習する媒体として機能している。
本稿では、子どもや青年をターゲットとしたオンラインインフルエンサーがアップロードしたTikTok映画から暗黙の価値観を抽出する。
我々は、何百ものTikTok映画のデータセットをキュレートし、Schwartz Theory of Personal Valuesに従って注釈を付けました。
次に、MaskedとLarge言語モデルの配列を実験し、どのように値を検出できるかを調べた。
具体的には、ビデオから値を直接抽出する2つのパイプラインと、まずビデオが精巧なスクリプトに変換され、次に値が抽出される2段階のアプローチを検討した。
その結果、2段階のアプローチは直接のアプローチよりもはるかに優れており、2段階目としてトレーニング可能なマスケッド言語モデルを使用することで、多数の大規模言語モデルの数ショットアプリケーションよりも大幅に優れていることがわかった。
さらに、細調整がTikTokに存在する値や矛盾する値の識別に与える影響について検討し、異なるモデルの性能を比較する。
最後に、TikTokビデオの最初の値アノテーション付きデータセットを共有します。
この結果は、ビデオベースのソーシャルプラットフォームにおける影響力と価値伝達に関するさらなる研究の道を開くものである。
関連論文リスト
- MAMA: Meta-optimized Angular Margin Contrastive Framework for Video-Language Representation Learning [34.259833094575285]
MAMAはビデオ言語表現の学習における新たなアプローチである。
MAMAは、ビデオ言語表現を改善し、一般的なビデオ質問応答やテキストビデオ検索データセットにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-07-04T09:52:17Z) - Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Grounding [108.79026216923984]
ビデオグラウンドイングは、入力テキストクエリに対応するビデオ内の時間セクションをローカライズすることを目的としている。
本稿では,現在のビデオグラウンドリング手法において,オープン語彙時空間ビデオグラウンドニングタスクを導入することにより,限界に対処する。
論文 参考訳(メタデータ) (2023-12-31T13:53:37Z) - Hate Speech and Offensive Language Detection using an Emotion-aware
Shared Encoder [1.8734449181723825]
ヘイトスピーチと攻撃的言語検出に関する既存の研究は、事前学習されたトランスフォーマーモデルに基づいて有望な結果をもたらす。
本稿では,他コーパスから抽出した外的感情特徴を組み合わせたマルチタスク共同学習手法を提案する。
以上の結果から,感情的な知識が,データセット間のヘイトスピーチや攻撃的言語をより確実に識別する上で有効であることが示唆された。
論文 参考訳(メタデータ) (2023-02-17T09:31:06Z) - Misinformation Detection in Social Media Video Posts [0.4724825031148411]
ソーシャルメディアプラットフォームによるショートフォームビデオは、ソーシャルメディアプロバイダーにとって重要な課題となっている。
本研究では,ソーシャルメディア投稿における誤情報検出手法を開発し,ビデオやテキストなどのモダリティを活用する。
われわれはTwitterから16万の動画投稿を収集し、自己教師付き学習を活用して、共同視覚およびテキストデータの表現表現を学ぶ。
論文 参考訳(メタデータ) (2022-02-15T20:14:54Z) - TACo: Token-aware Cascade Contrastive Learning for Video-Text Alignment [68.08689660963468]
Token-Aware Cascade contrastive Learning (TACo)と呼ばれる新しいアルゴリズムは、2つの新しい手法を用いてコントラスト学習を改善する。
そこで我々は,YouCook2,MSR-VTT,ActivityNetの3つの公開テキストビデオ検索ベンチマークに最先端を新たに設定した。
論文 参考訳(メタデータ) (2021-08-23T07:24:57Z) - VidLanKD: Improving Language Understanding via Video-Distilled Knowledge
Transfer [76.3906723777229]
言語理解を改善するためのビデオ言語知識蒸留法VidLanKDを提案する。
我々は、ビデオテキストデータセット上でマルチモーダル教師モデルを訓練し、その知識をテキストデータセットを用いて学生言語モデルに伝達する。
我々の実験では、VidLanKDはテキストのみの言語モデルや発声モデルよりも一貫した改善を実現している。
論文 参考訳(メタデータ) (2021-07-06T15:41:32Z) - VALUE: A Multi-Task Benchmark for Video-and-Language Understanding
Evaluation [124.02278735049235]
VALUEベンチマークは、幅広いビデオジャンル、ビデオの長さ、データボリューム、タスクの難易度をカバーすることを目的としている。
大規模なVidL事前学習による各種ベースライン法の評価を行った。
我々の最高のモデルと人間のパフォーマンスの間の大きなギャップは、先進的なVidLモデルの将来の研究を要求する。
論文 参考訳(メタデータ) (2021-06-08T18:34:21Z) - Watch and Learn: Mapping Language and Noisy Real-world Videos with
Self-supervision [54.73758942064708]
我々は、明示的なアノテーションを使わずに、文章と騒々しいビデオスニペットのマッピングを学習することで、視覚と自然言語を理解するように機械に教える。
トレーニングと評価のために、多数のオンラインビデオとサブタイトルを含む新しいデータセットApartmenTourをコントリビュートする。
論文 参考訳(メタデータ) (2020-11-19T03:43:56Z) - Content-based Analysis of the Cultural Differences between TikTok and
Douyin [95.32409577885645]
ショートフォームのソーシャルメディアは、聴衆にダイナミックなストーリーを伝え、彼らの注意を引き付けることによって、伝統的なメディアパラダイムから遠ざかる。
特に、興味深く、理解しやすいユニークなシーンを表現するために、日常的なオブジェクトの異なる組み合わせを用いることができる。
同じ会社によって提供されたTikTokとDouyinは、近年人気になった新しいメディアの好例だ。
メディアファッションや社会的慣用性とともに文化的な違いを表現しているという仮説が,本研究の主目的である。
論文 参考訳(メタデータ) (2020-11-03T01:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。