論文の概要: TikGuard: A Deep Learning Transformer-Based Solution for Detecting Unsuitable TikTok Content for Kids
- arxiv url: http://arxiv.org/abs/2410.00403v1
- Date: Tue, 1 Oct 2024 05:00:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 05:46:46.249647
- Title: TikGuard: A Deep Learning Transformer-Based Solution for Detecting Unsuitable TikTok Content for Kids
- Title(参考訳): TikGuard:子供向けの不適切なTikTokコンテンツを検出するディープラーニングトランスフォーマーベースのソリューション
- Authors: Mazen Balat, Mahmoud Essam Gabr, Hend Bakr, Ahmed B. Zaky,
- Abstract要約: 本稿では,TikGuardについて紹介する。TikGuardは,TikTokの子供に適さないコンテンツの検出とフラグ付けを目的とした,トランスフォーマーベースのディープラーニングアプローチである。
特別にキュレートされたデータセットであるTikHarmを使用し、高度なビデオ分類技術を活用することで、TikGuardは86.7%の精度を達成した。
直接比較はTikHarmデータセットのユニークさによって制限されているが、TikGuardのパフォーマンスはコンテンツモデレーションの強化の可能性を強調している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rise of short-form videos on platforms like TikTok has brought new challenges in safeguarding young viewers from inappropriate content. Traditional moderation methods often fall short in handling the vast and rapidly changing landscape of user-generated videos, increasing the risk of children encountering harmful material. This paper introduces TikGuard, a transformer-based deep learning approach aimed at detecting and flagging content unsuitable for children on TikTok. By using a specially curated dataset, TikHarm, and leveraging advanced video classification techniques, TikGuard achieves an accuracy of 86.7%, showing a notable improvement over existing methods in similar contexts. While direct comparisons are limited by the uniqueness of the TikHarm dataset, TikGuard's performance highlights its potential in enhancing content moderation, contributing to a safer online experience for minors. This study underscores the effectiveness of transformer models in video classification and sets a foundation for future research in this area.
- Abstract(参考訳): TikTokのようなプラットフォームでのショートフォームビデオの出現は、若い視聴者を不適切なコンテンツから守るという新たな課題をもたらしている。
従来のモデレーション手法は、ユーザー生成ビデオの広範で急速に変化する景観を扱うのに不足することが多く、有害物質に遭遇する子供のリスクを増大させる。
本稿では,TikGuardについて紹介する。TikGuardは,TikTokの子供に適さないコンテンツの検出とフラグ付けを目的とした,トランスフォーマーベースのディープラーニングアプローチである。
特別にキュレートされたデータセットであるTikHarmを使用し、高度なビデオ分類技術を活用することで、TikGuardは86.7%の精度を達成した。
直接比較はTikHarmデータセットのユニークさによって制限されているが、TikGuardのパフォーマンスはコンテンツモデレーションの強化の可能性を強調し、未成年者にとってより安全なオンラインエクスペリエンスに寄与している。
本研究は,映像分類におけるトランスフォーマーモデルの有効性を強調し,この領域における今後の研究の基盤となる。
関連論文リスト
- Catching Dark Signals in Algorithms: Unveiling Audiovisual and Thematic Markers of Unsafe Content Recommended for Children and Teenagers [13.39320891153433]
ショートフォームビデオプラットフォームの普及は、年齢検証メカニズムの非効率さと相まって、アルゴリズムを改造したオンライン環境において、子供やティーンエイジャーが直面する潜在的な害について懸念を喚起する。
Instagram Reels, TikTok, YouTube Shortsで, 子どもとティーンエイジャーに推奨される4,492本のショートビデオのマルチモーダル特徴分析とテーマ・トピック・モデリングを行った。
この特徴レベルおよびコンテンツレベルの分析により、安全でない(つまり、精神的に苦しむ)ショートビデオは、より暗い視覚的特徴を持ち、明らかな有害なコンテンツと、不安を引き起こす通常のコンテンツによる暗黙の害を含んでいることが明らかとなった。
論文 参考訳(メタデータ) (2025-07-16T18:41:42Z) - When Kids Mode Isn't For Kids: Investigating TikTok's "Under 13 Experience" [3.7436113672723534]
ソーシャルメディアプラットフォームであるTikTokは、TikTokの"Kids Mode"としても知られる米国の若者向けに、より限定的な"Under 13 Experience"を提供する。
以前の研究では、TikTokのレギュラーモードの様々な側面を研究してきたが、TikTokのキッズモードはまだ検討されている。
キッズモードの「For You」ページで観察されたビデオの83%は実際には子供向けではなく、不適切なコンテンツさえも発見されている。
論文 参考訳(メタデータ) (2025-06-30T22:31:31Z) - SNIFR : Boosting Fine-Grained Child Harmful Content Detection Through Audio-Visual Alignment with Cascaded Cross-Transformer [6.590879020134438]
悪意のあるユーザは、最小限のフレームに安全でないコンテンツを埋め込んでモデレーションシステムを利用する。
本研究では,子どもに有害なコンテンツの検出を視覚的に行うためのオーディオキューを組み込み,効果的なアライメントのための新しいフレームワークであるSNIFRを導入する。
論文 参考訳(メタデータ) (2025-06-03T20:37:23Z) - Protecting Young Users on Social Media: Evaluating the Effectiveness of Content Moderation and Legal Safeguards on Video Sharing Platforms [0.8198234257428011]
我々は,TikTok,YouTube,Instagramの年齢層別ビデオモデレーションの有効性を評価した。
受動的スクロールでは、13歳グループに割り当てられたアカウントは、18歳グループに割り当てられたアカウントよりも、より頻繁に迅速に有害とされるビデオに遭遇した。
露光は、アルゴリズムフィルタリングシステムの弱点を示す、ユーザー主導の検索なしで発生した。
論文 参考訳(メタデータ) (2025-05-16T12:06:42Z) - EdgeAIGuard: Agentic LLMs for Minor Protection in Digital Spaces [13.180252900900854]
本稿では,未成年者に対するオンライングルーミングやデジタル活用のさまざまな形態から保護するためのEdgeAIGuardコンテンツモデレーション手法を提案する。
提案手法は,ネットワークエッジに戦略的に配置したマルチエージェントアーキテクチャを用いて,低レイテンシで高速に検出し,未成年者を対象とした有害なコンテンツを防止する。
論文 参考訳(メタデータ) (2025-02-28T16:29:34Z) - Enhance-A-Video: Better Generated Video for Free [57.620595159855064]
本稿では,DiTをベースとしたビデオのコヒーレンスと品質を高めるためのトレーニング不要な手法を提案する。
我々のアプローチは、リトレーニングや微調整なしに、ほとんどのDiTベースのビデオ生成フレームワークに容易に適用できる。
論文 参考訳(メタデータ) (2025-02-11T12:22:35Z) - The Value of Nothing: Multimodal Extraction of Human Values Expressed by TikTok Influencers [2.3592914313389253]
本稿では、子どもや青年をターゲットとしたオンラインインフルエンサーがアップロードしたTikTok映画から暗黙的な価値を抽出する。
我々は、何百ものTikTok映画のデータセットをキュレートし、Schwartz Theory of Personal Valuesに従って注釈を付けました。
この結果は、ビデオベースのソーシャルプラットフォームにおける影響力と価値伝達に関するさらなる研究の道を開くものである。
論文 参考訳(メタデータ) (2025-01-20T22:21:18Z) - Conspiracy theories and where to find them on TikTok [3.424635462664968]
TikTokがオンラインの有害で危険なコンテンツを宣伝し、増幅する可能性を懸念する声が上がっている。
本研究は、陰謀論を推し進める動画の存在を分析し、その有病率を低く見積もっている。
ビデオの音声の書き起こしを抽出した後の陰謀論を識別するために,最先端のオープン言語モデルの有効性を評価する。
論文 参考訳(メタデータ) (2024-07-17T13:28:11Z) - VITON-DiT: Learning In-the-Wild Video Try-On from Human Dance Videos via Diffusion Transformers [53.45587477621942]
そこで本研究では,VITON-DiT という,Diton-DiT ベースのビデオトライオンフレームワークを提案する。
具体的には、VITON-DiTは、衣服抽出器、空間-テンポラル denoising DiT、アイデンティティ保存制御ネットから構成される。
また、トレーニング中のランダム選択戦略や、長いビデオ生成を容易にするために、推論時に補間自己回帰(IAR)技術を導入する。
論文 参考訳(メタデータ) (2024-05-28T16:21:03Z) - Fine-Grained Knowledge Selection and Restoration for Non-Exemplar Class
Incremental Learning [64.14254712331116]
非典型的なクラスインクリメンタル学習は、過去のトレーニングデータにアクセスすることなく、新しいタスクと古いタスクの両方を学ぶことを目的としている。
本稿では, きめ細かい知識選択と復元のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-12-20T02:34:11Z) - Teacher Agent: A Knowledge Distillation-Free Framework for
Rehearsal-based Video Incremental Learning [29.52218286906986]
リハーサルベースのビデオインクリメンタル学習は、しばしば知識蒸留を用いて、以前に学習したデータの破滅的な忘れを軽減している。
テキスト教師エージェントと呼ばれるリハーサルベースのビデオインクリメンタル学習のための知識蒸留自由フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-01T06:54:56Z) - Supervised Masked Knowledge Distillation for Few-Shot Transformers [36.46755346410219]
そこで本稿では,少数のトランスフォーマーを対象としたSMKD(Supervised Masked Knowledge Distillation Model)を提案する。
従来の自己管理手法と比較して,クラストークンとパッチトークンの両方でクラス内知識蒸留が可能である。
簡単な設計による手法は,従来の手法を大きなマージンで上回り,新たなスタート・オブ・ザ・アーティファクトを実現する。
論文 参考訳(メタデータ) (2023-03-25T03:31:46Z) - Weakly Supervised Two-Stage Training Scheme for Deep Video Fight
Detection Model [0.0]
ビデオにおけるファイト検出は、今日の監視システムとストリーミングメディアの普及にともなう、新たなディープラーニングアプリケーションである。
これまでの研究は、この問題に対処するための行動認識技術に大きく依存していた。
本研究では,動作認識特徴抽出器と異常スコア生成器の合成として,戦闘検出モデルを設計する。
論文 参考訳(メタデータ) (2022-09-23T08:29:16Z) - Unsupervised Domain Adaptation for Video Transformers in Action
Recognition [76.31442702219461]
ビデオ行動認識のためのシンプルで斬新なUDA手法を提案する。
私たちのアプローチでは、ターゲットドメインをより一般化した堅牢なソースモデルを構築しています。
UDAのための2つのビデオアクションベンチマークの認識結果について報告する。
論文 参考訳(メタデータ) (2022-07-26T12:17:39Z) - Anomaly detection in surveillance videos using transformer based
attention model [3.2968779106235586]
本研究は、トレーニングビデオにおける異常セグメントの注釈付けを避けるために、弱教師付き戦略を用いることを示唆する。
提案するフレームワークは,実世界のデータセット,すなわちShanghaiTech Campusデータセットで検証される。
論文 参考訳(メタデータ) (2022-06-03T12:19:39Z) - Weakly Supervised Video Salient Object Detection [79.51227350937721]
本稿では,relabeled relabeled "fixation guided scribble annotations" に基づく最初の弱教師付きビデオサリエント物体検出モデルを提案する。
効果的なマルチモーダル学習と長期時間文脈モデリングを実現するために,「アプレンス・モーション・フュージョン・モジュール」と双方向のConvLSTMベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-06T09:48:38Z) - Semi-Supervised Action Recognition with Temporal Contrastive Learning [50.08957096801457]
2つの異なる速度でラベル付きビデオを用いて2経路の時間的コントラストモデルを学習する。
我々は最先端の半教師付き画像認識手法の映像拡張性能を著しく向上させた。
論文 参考訳(メタデータ) (2021-02-04T17:28:35Z) - Uncertainty-Aware Weakly Supervised Action Detection from Untrimmed
Videos [82.02074241700728]
本稿では,ビデオフレームラベルのみを用いてトレーニングした,禁止レベルの行動認識モデルを提案する。
人1人当たりの手法は、複数のインスタンス学習フレームワーク内の大規模な画像データセットで訓練されている。
標準的な多重インスタンス学習の仮定では、各バッグには、指定されたラベルを持つ少なくとも1つのインスタンスが含まれているという仮定が無効である場合、どのようにメソッドを適用するかを示す。
論文 参考訳(メタデータ) (2020-07-21T10:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。