論文の概要: Content-based Analysis of the Cultural Differences between TikTok and
Douyin
- arxiv url: http://arxiv.org/abs/2011.01414v1
- Date: Tue, 3 Nov 2020 01:47:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 06:12:51.196403
- Title: Content-based Analysis of the Cultural Differences between TikTok and
Douyin
- Title(参考訳): コンテンツに基づくTikTokとDouyinの文化的差異の分析
- Authors: Li Sun, Haoqi Zhang, Songyang Zhang, Jiebo Luo
- Abstract要約: ショートフォームのソーシャルメディアは、聴衆にダイナミックなストーリーを伝え、彼らの注意を引き付けることによって、伝統的なメディアパラダイムから遠ざかる。
特に、興味深く、理解しやすいユニークなシーンを表現するために、日常的なオブジェクトの異なる組み合わせを用いることができる。
同じ会社によって提供されたTikTokとDouyinは、近年人気になった新しいメディアの好例だ。
メディアファッションや社会的慣用性とともに文化的な違いを表現しているという仮説が,本研究の主目的である。
- 参考スコア(独自算出の注目度): 95.32409577885645
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Short-form video social media shifts away from the traditional media paradigm
by telling the audience a dynamic story to attract their attention. In
particular, different combinations of everyday objects can be employed to
represent a unique scene that is both interesting and understandable. Offered
by the same company, TikTok and Douyin are popular examples of such new media
that has become popular in recent years, while being tailored for different
markets (e.g. the United States and China). The hypothesis that they express
cultural differences together with media fashion and social idiosyncrasy is the
primary target of our research. To that end, we first employ the Faster
Regional Convolutional Neural Network (Faster R-CNN) pre-trained with the
Microsoft Common Objects in COntext (MS-COCO) dataset to perform object
detection. Based on a suite of objects detected from videos, we perform
statistical analysis including label statistics, label similarity, and
label-person distribution. We further use the Two-Stream Inflated 3D ConvNet
(I3D) pre-trained with the Kinetics dataset to categorize and analyze human
actions. By comparing the distributional results of TikTok and Douyin, we
uncover a wealth of similarity and contrast between the two closely related
video social media platforms along the content dimensions of object quantity,
object categories, and human action categories.
- Abstract(参考訳): 短いビデオソーシャルメディアは、聴衆に注目を集めるためにダイナミックなストーリーを語ることによって、伝統的なメディアパラダイムから離れていく。
特に、興味深く理解しやすいユニークなシーンを表現するために、日々のオブジェクトの異なる組み合わせが利用できます。
同じ会社によって提供されるtiktokとdouyinは、異なる市場(例えば米国と中国)向けに調整されている一方で、近年普及している新しいメディアの人気のある例である。
メディアのファッションや社会的イディオコプラシーと文化的な違いを表現できるという仮説は,我々の研究の主要な目標である。
そこで我々はまず、Microsoft Common Objects in Context (MS-COCO)データセットで事前訓練されたFaster Regional Convolutional Neural Network (Faster R-CNN)を用いてオブジェクト検出を行う。
ビデオから検出されたオブジェクトの集合に基づいて,ラベル統計,ラベル類似性,ラベル個人分布などの統計分析を行う。
さらに,2-stream inflated 3d convnet (i3d) をkineticsデータセットで事前学習し,人間の行動の分類と分析を行う。
tiktok と douyin の分布結果を比較することで,オブジェクト量,オブジェクトカテゴリ,ヒューマンアクションカテゴリのコンテンツ次元に沿った2つの密接な関係を持つビデオソーシャルメディアプラットフォーム間の類似性とコントラストを明らかにした。
関連論文リスト
- Intertwined Biases Across Social Media Spheres: Unpacking Correlations in Media Bias Dimensions [12.588239777597847]
メディアバイアスは、ステレオタイプを強化し、社会的分裂を悪化させることによって、公共の認知を著しく形作る。
われわれは過去5年間にYouTubeとRedditから収集された新しいデータセットを紹介した。
私たちのデータセットには、幅広いバイアス次元にわたるYouTubeコンテンツの自動アノテーションが含まれています。
論文 参考訳(メタデータ) (2024-08-27T21:03:42Z) - GREENER: Graph Neural Networks for News Media Profiling [24.675574340841163]
本稿では,ウェブ上でのニュースメディアのプロファイリングの問題について,その実態と偏見について考察する。
私たちの主な焦点は、オーディエンスの重複に基づいて、メディア間の類似性をモデル化することにあります。
予測精度は2つのタスクに対して2.5-27マクロF1ポイント向上した。
論文 参考訳(メタデータ) (2022-11-10T12:46:29Z) - Temporal Saliency Query Network for Efficient Video Recognition [82.52760040577864]
ビデオ認識は、インターネットやモバイルデバイス上でのマルチメディアデータの爆発的な成長に関するホットスポット研究のトピックである。
既存の方法の多くは、クラス固有のサリエンシスコアを意識せずに、サリエントフレームを選択する。
そこで我々は,Saliency Query (TSQ) 機構を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:23:34Z) - LIGHTEN: Learning Interactions with Graph and Hierarchical TEmporal
Networks for HOI in videos [13.25502885135043]
ビデオから人間と物体の相互作用を分析すると、人間とビデオに存在する物体の関係が特定される。
映像中の複数の粒度の真理を効果的に捉え,視覚的特徴を学習するための階層的アプローチ LIGHTEN を提案する。
V-COCOにおける人間と物体の相互作用検出(88.9%と92.6%)とCAD-120の予測タスクおよび画像ベースHOI検出の競争結果の最先端化を実現した。
論文 参考訳(メタデータ) (2020-12-17T05:44:07Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z) - Comprehensive Information Integration Modeling Framework for Video
Titling [124.11296128308396]
エンド・ツー・エンド・エンド・モデリング・フレームワークにおいて、消費者生成ビデオの内容、消費者から提供される物語コメント文、製品属性などの包括的情報ソースを統合する。
この問題に対処するため,提案手法は,粒度レベルの相互作用モデリングと抽象レベルのストーリーライン要約という2つのプロセスから構成される。
グローバルなeコマースプラットフォームであるTaobaoの実際のデータから、大規模なデータセットを収集します。
論文 参考訳(メタデータ) (2020-06-24T10:38:15Z) - Dense-Caption Matching and Frame-Selection Gating for Temporal
Localization in VideoQA [96.10612095576333]
本稿では,マルチモーダルな入力源を効果的に統合し,時間的関連情報から質問に答えるビデオ質問応答モデルを提案する。
また,2レベルアテンション(単語・オブジェクト・フレームレベル),異なるソース(ビデオ・高密度キャプション)に対するマルチヘッド自己統合,ゲートへのより関連性の高い情報伝達などで構成されている。
当社のモデルは,各モデルコンポーネントが大きな利益をもたらす,難易度の高いTVQAデータセット上で評価され,全体的なモデルでは,最先端のモデルよりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2020-05-13T16:35:27Z) - EmotiCon: Context-Aware Multimodal Emotion Recognition using Frege's
Principle [71.47160118286226]
EmotiConは、ビデオや画像から知覚された人間の感情認識をコンテキスト認識する学習アルゴリズムである。
心理学からフレーゲの文脈原理に動機づけられた我々のアプローチは、感情認識のための文脈の3つの解釈を組み合わせたものである。
平均精度 (AP) スコアは26クラスで35.48であり, 従来の手法よりも7-8の改善が見られた。
論文 参考訳(メタデータ) (2020-03-14T19:55:21Z) - A multi-layer approach to disinformation detection on Twitter [4.663548775064491]
我々は,Twitter拡散ネットワークの多層表現を用い,各層に対してグローバルネットワーク機能群を計算した。
米国とイタリアでそれぞれ共有されたニュースの拡散カスケードに対応する2つの大規模データセットによる実験結果から、単純なロジスティック回帰モデルにより、偽情報と主流ネットワークを高精度に分類できることが示されている。
当社のネットワークベースのアプローチは,ソーシャルメディアに拡散する誤解を招く有害な情報を検出するシステム開発への道を開く有用な洞察を提供すると考えている。
論文 参考訳(メタデータ) (2020-02-28T09:25:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。