論文の概要: Will You Dance To The Challenge? Predicting User Participation of TikTok
Challenges
- arxiv url: http://arxiv.org/abs/2112.13384v1
- Date: Sun, 26 Dec 2021 14:24:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-29 04:13:42.932481
- Title: Will You Dance To The Challenge? Predicting User Participation of TikTok
Challenges
- Title(参考訳): 挑戦のために踊るのか?
TikTokチャレンジのユーザ参加予測
- Authors: Lynnette Hui Xian Ng, John Yeh Han Tan, Darryl Jing Heng Tan, Roy
Ka-Wei Lee
- Abstract要約: 本稿では、ユーザの参加を予測することによって、TikTok課題の社会的伝染を調査する。
本稿では,過去のビデオから潜在ユーザと課題表現を学習し,組み合わせるための新しいディープラーニングモデルであるDeepChallengerを提案する。
- 参考スコア(独自算出の注目度): 2.2850019869312432
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: TikTok is a popular new social media, where users express themselves through
short video clips. A common form of interaction on the platform is
participating in "challenges", which are songs and dances for users to iterate
upon. Challenge contagion can be measured through replication reach, i.e.,
users uploading videos of their participation in the challenges. The uniqueness
of the TikTok platform where both challenge content and user preferences are
evolving requires the combination of challenge and user representation. This
paper investigates social contagion of TikTok challenges through predicting a
user's participation. We propose a novel deep learning model, deepChallenger,
to learn and combine latent user and challenge representations from past videos
to perform this user-challenge prediction task. We collect a dataset of over
7,000 videos from 12 trending challenges on the ForYouPage, the app's landing
page, and over 10,000 videos from 1303 users. Extensive experiments are
conducted and the results show that our proposed deepChallenger (F1=0.494)
outperforms baselines (F1=0.188) in the prediction task.
- Abstract(参考訳): TikTokは人気の高いソーシャルメディアで、ユーザーは短いビデオクリップで自分を表現できる。
プラットフォーム上でのインタラクションの一般的な形態は、ユーザが反復する曲やダンスである"challenges"に参加することである。
チャレンジ感染は、複製到達度、すなわち、ユーザがチャレンジに参加する際のビデオをアップロードすることで測定できる。
コンテンツとユーザの好みの両方が進化しているtiktokプラットフォームのユニークさは、チャレンジとユーザ表現の組み合わせを必要とする。
本稿では、ユーザの参加を予測することによって、TikTok課題の社会的伝染を調査する。
そこで本研究では,過去の映像からの潜在ユーザ表現と課題表現を学習し,組み合わせた新しいディープラーニングモデルであるdeepchallengerを提案する。
ForYouPageでは、アプリのランディングページである12のトレンド課題から7000以上のビデオと1303ユーザの10,000以上のビデオのデータセットを集めています。
その結果,提案したDeepChallenger (F1=0.494) は予測タスクにおけるベースライン (F1=0.188) より優れていた。
関連論文リスト
- AIM 2024 Challenge on Video Saliency Prediction: Methods and Results [105.09572982350532]
本稿では,AIM 2024におけるビデオ・サリエンシ予測の課題について概説する。
参加者の目標は、提供されたビデオシーケンスのセットに対して正確な精度マップを予測する方法を開発することであった。
論文 参考訳(メタデータ) (2024-09-23T08:59:22Z) - Overview of AI-Debater 2023: The Challenges of Argument Generation Tasks [62.443665295250035]
第2023回中国影響コンピューティング会議(CCAC 2023)におけるAI-Debater 2023チャレンジの結果を提示する。
合計で32のチームがチャレンジに登録し、そこから11の応募をもらいました。
論文 参考訳(メタデータ) (2024-07-20T10:13:54Z) - The SkatingVerse Workshop & Challenge: Methods and Results [137.81522563074287]
SkatingVerse Workshop & Challengeは、人間の行動理解のための新規で正確な方法の研究を促進することを目的としている。
SkatingVerse Challengeで使用されるデータセットが公開された。
世界中から参加する約10チームがSkatingVerse Challengeに出場した。
論文 参考訳(メタデータ) (2024-05-27T14:12:07Z) - AIS 2024 Challenge on Video Quality Assessment of User-Generated Content: Methods and Results [140.47245070508353]
本稿では,ユーザ生成コンテンツ(UGC)に着目したAIS 2024ビデオ品質アセスメント(VQA)チャレンジについてレビューする。
この課題の目的は、ビデオの知覚品質を推定できるディープラーニングベースの手法を収集することである。
YouTubeデータセットから生成されたビデオには、さまざまなコンテンツ(スポーツ、ゲーム、歌詞、アニメなど)、品質、解像度が含まれている。
論文 参考訳(メタデータ) (2024-04-24T21:02:14Z) - Lightweight Boosting Models for User Response Prediction Using
Adversarial Validation [2.4040470282119983]
ShareChatが主催するACM RecSys Challenge 2023は、アプリがインストールされる確率を予測することを目的としている。
本稿では,この課題に対する軽量な解決策について述べる。
論文 参考訳(メタデータ) (2023-10-05T13:57:05Z) - NTIRE 2023 Quality Assessment of Video Enhancement Challenge [97.809937484099]
NTIRE 2023 Quality Assessment of Video Enhancement Challengeについて報告する。
課題は、ビデオ処理分野における大きな課題、すなわち、強化されたビデオに対するビデオ品質評価(VQA)に対処することである。
参加者数は167名。
論文 参考訳(メタデータ) (2023-07-19T02:33:42Z) - Analyzing User Engagement with TikTok's Short Format Video Recommendations using Data Donations [31.764672446151412]
データ提供システムを通じて収集したデータを用いて、TikTok上のユーザエンゲージメントを分析する。
利用者の注意力は45%程度で安定しているのに対し,平均日使用時間は1日平均で1日当たり1時間以上上昇していることがわかった。
また、フォローしていない人よりもフォローしている人がアップロードしたビデオの方が多いこともわかりました。
論文 参考訳(メタデータ) (2023-01-12T11:34:45Z) - ReLER@ZJU-Alibaba Submission to the Ego4D Natural Language Queries
Challenge 2022 [61.81899056005645]
ビデオクリップとテキストクエリが与えられた場合、この課題のゴールは、クエリに対する回答が得られるビデオクリップの時間的モーメントを見つけることである。
本稿では,言語クエリとビデオクリップの相関関係を明らかにするために,マルチスケールのクロスモーダル変換器とビデオフレームレベルのコントラスト損失を提案する。
実験の結果,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-07-01T12:48:35Z) - Will You Ever Become Popular? Learning to Predict Virality of Dance
Clips [41.2877440857042]
本稿では, 骨格, 全体像, 顔, 景色を融合した新しいマルチモーダルフレームワークを提案する。
体の動きをモデル化するために、階層的に時間的骨格グラフを洗練させるピラミッド状骨格グラフ畳み込みネットワーク(PSGCN)を提案する。
提案手法を検証するために,8つのバイラルダンス課題の4000以上のダンスクリップを含む大規模バイラルダンスビデオ(VDV)データセットを導入した。
論文 参考訳(メタデータ) (2021-11-06T07:26:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。