論文の概要: Will You Dance To The Challenge? Predicting User Participation of TikTok
Challenges
- arxiv url: http://arxiv.org/abs/2112.13384v1
- Date: Sun, 26 Dec 2021 14:24:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-29 04:13:42.932481
- Title: Will You Dance To The Challenge? Predicting User Participation of TikTok
Challenges
- Title(参考訳): 挑戦のために踊るのか?
TikTokチャレンジのユーザ参加予測
- Authors: Lynnette Hui Xian Ng, John Yeh Han Tan, Darryl Jing Heng Tan, Roy
Ka-Wei Lee
- Abstract要約: 本稿では、ユーザの参加を予測することによって、TikTok課題の社会的伝染を調査する。
本稿では,過去のビデオから潜在ユーザと課題表現を学習し,組み合わせるための新しいディープラーニングモデルであるDeepChallengerを提案する。
- 参考スコア(独自算出の注目度): 2.2850019869312432
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: TikTok is a popular new social media, where users express themselves through
short video clips. A common form of interaction on the platform is
participating in "challenges", which are songs and dances for users to iterate
upon. Challenge contagion can be measured through replication reach, i.e.,
users uploading videos of their participation in the challenges. The uniqueness
of the TikTok platform where both challenge content and user preferences are
evolving requires the combination of challenge and user representation. This
paper investigates social contagion of TikTok challenges through predicting a
user's participation. We propose a novel deep learning model, deepChallenger,
to learn and combine latent user and challenge representations from past videos
to perform this user-challenge prediction task. We collect a dataset of over
7,000 videos from 12 trending challenges on the ForYouPage, the app's landing
page, and over 10,000 videos from 1303 users. Extensive experiments are
conducted and the results show that our proposed deepChallenger (F1=0.494)
outperforms baselines (F1=0.188) in the prediction task.
- Abstract(参考訳): TikTokは人気の高いソーシャルメディアで、ユーザーは短いビデオクリップで自分を表現できる。
プラットフォーム上でのインタラクションの一般的な形態は、ユーザが反復する曲やダンスである"challenges"に参加することである。
チャレンジ感染は、複製到達度、すなわち、ユーザがチャレンジに参加する際のビデオをアップロードすることで測定できる。
コンテンツとユーザの好みの両方が進化しているtiktokプラットフォームのユニークさは、チャレンジとユーザ表現の組み合わせを必要とする。
本稿では、ユーザの参加を予測することによって、TikTok課題の社会的伝染を調査する。
そこで本研究では,過去の映像からの潜在ユーザ表現と課題表現を学習し,組み合わせた新しいディープラーニングモデルであるdeepchallengerを提案する。
ForYouPageでは、アプリのランディングページである12のトレンド課題から7000以上のビデオと1303ユーザの10,000以上のビデオのデータセットを集めています。
その結果,提案したDeepChallenger (F1=0.494) は予測タスクにおけるベースライン (F1=0.188) より優れていた。
関連論文リスト
- Are you Struggling? Dataset and Baselines for Struggle Determination in
Assembly Videos [4.631245639292796]
本稿では,3つの組立アクティビティとそれに対応するパフォーマンスベースラインを備えた新しいデータセットを提案する。
ビデオセグメントは、アノテータによって知覚される闘争のレベルが、強制的な選択4ポイントスケールで評価された。
このデータセットは、73人の参加者から5.1時間の動画と725,100フレームを収録した最初の闘争アノテーションデータセットである。
論文 参考訳(メタデータ) (2024-02-16T20:12:33Z) - AI Competitions and Benchmarks: towards impactful challenges with
post-challenge papers, benchmarks and other dissemination actions [5.459244842713057]
この章は、チャレンジが正式に完了した後の様々な活動について記述する。
異なるアフターチャレンジ活動のターゲットオーディエンスを特定した。
チャレンジのさまざまなアウトプットは、それらを収集する手段としてリストアップされる。
論文 参考訳(メタデータ) (2023-12-10T23:24:17Z) - Lightweight Boosting Models for User Response Prediction Using
Adversarial Validation [2.4040470282119983]
ShareChatが主催するACM RecSys Challenge 2023は、アプリがインストールされる確率を予測することを目的としている。
本稿では,この課題に対する軽量な解決策について述べる。
論文 参考訳(メタデータ) (2023-10-05T13:57:05Z) - NTIRE 2023 Quality Assessment of Video Enhancement Challenge [97.809937484099]
NTIRE 2023 Quality Assessment of Video Enhancement Challengeについて報告する。
課題は、ビデオ処理分野における大きな課題、すなわち、強化されたビデオに対するビデオ品質評価(VQA)に対処することである。
参加者数は167名。
論文 参考訳(メタデータ) (2023-07-19T02:33:42Z) - NaQ: Leveraging Narrations as Queries to Supervise Episodic Memory [92.98552727430483]
Narrations-as-Queries (NaQ)は、標準的なビデオテキストナレーションをビデオクエリのローカライゼーションモデルのためのトレーニングデータに変換するデータ拡張戦略である。
NaQが複数のトップモデルを大幅に改善(精度を2倍に)
また、ゼロショットおよび少数ショットNLQの実行能力や、ロングテールオブジェクトカテゴリに関するクエリのパフォーマンス向上など、このアプローチのユニークな特性も示す。
論文 参考訳(メタデータ) (2023-01-02T16:40:15Z) - The Runner-up Solution for YouTube-VIS Long Video Challenge 2022 [72.13080661144761]
この課題に対して,提案したオンラインビデオインスタンス分割方式IDOLを採用した。
擬似ラベルを使用して、コントラスト学習をさらに支援し、時間的に一貫したインスタンスの埋め込みを得る。
提案手法は、YouTube-VIS 2022長ビデオデータセット上で40.2 APを取得し、この課題において第2位にランクされた。
論文 参考訳(メタデータ) (2022-11-18T01:40:59Z) - ReLER@ZJU-Alibaba Submission to the Ego4D Natural Language Queries
Challenge 2022 [61.81899056005645]
ビデオクリップとテキストクエリが与えられた場合、この課題のゴールは、クエリに対する回答が得られるビデオクリップの時間的モーメントを見つけることである。
本稿では,言語クエリとビデオクリップの相関関係を明らかにするために,マルチスケールのクロスモーダル変換器とビデオフレームレベルのコントラスト損失を提案する。
実験の結果,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-07-01T12:48:35Z) - Will You Ever Become Popular? Learning to Predict Virality of Dance
Clips [41.2877440857042]
本稿では, 骨格, 全体像, 顔, 景色を融合した新しいマルチモーダルフレームワークを提案する。
体の動きをモデル化するために、階層的に時間的骨格グラフを洗練させるピラミッド状骨格グラフ畳み込みネットワーク(PSGCN)を提案する。
提案手法を検証するために,8つのバイラルダンス課題の4000以上のダンスクリップを含む大規模バイラルダンスビデオ(VDV)データセットを導入した。
論文 参考訳(メタデータ) (2021-11-06T07:26:28Z) - NTIRE 2021 Challenge on Quality Enhancement of Compressed Video: Dataset
and Study [95.36629866768999]
本稿では, NTIRE 2021チャレンジの最先端手法について, 映像強調のための新しいデータセットを提案する。
この課題は、3つのコンペティション、数百の参加者、数十のソリューションで、この方向の最初のNTIREチャレンジです。
NTIRE 2021の課題は圧縮ビデオの品質向上の最先端技術であることがわかった。
論文 参考訳(メタデータ) (2021-04-21T22:18:33Z) - The End-of-End-to-End: A Video Understanding Pentathlon Challenge (2020) [186.7816349401443]
我々は、IEEE Conference on Computer Vision and Pattern Recognition (CVPR) 2020と共同で開かれたオープンコンペティションである、新しいビデオ理解ペンタトロンチャレンジを紹介する。
課題は,テキスト・ビデオ検索の新しい手法を探求し,評価することであった。
論文 参考訳(メタデータ) (2020-08-03T09:55:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。