論文の概要: ShortCheck: Checkworthiness Detection of Multilingual Short-Form Videos
- arxiv url: http://arxiv.org/abs/2509.20467v1
- Date: Wed, 24 Sep 2025 18:37:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.537842
- Title: ShortCheck: Checkworthiness Detection of Multilingual Short-Form Videos
- Title(参考訳): ShortCheck:マルチリンガル・ショートフォームビデオのチェックネス検出
- Authors: Henrik Vatndal, Vinay Setty,
- Abstract要約: ShortCheckはモジュラーで推論のみのパイプラインで、チェック可能なショートビデオを自動的に識別して、人間のファクトチェックを支援する。
このシステムは、音声の書き起こし、OCR、オブジェクトとディープフェイクの検出、ビデオとテキストの要約、クレームの検証を統合する。
ShortCheckは、TikTokビデオを使った2つの手動アノテーション付きデータセット上で、多言語設定で評価することで検証される。
- 参考スコア(独自算出の注目度): 8.830479021890577
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Short-form video platforms like TikTok present unique challenges for misinformation detection due to their multimodal, dynamic, and noisy content. We present ShortCheck, a modular, inference-only pipeline with a user-friendly interface that automatically identifies checkworthy short-form videos to help human fact-checkers. The system integrates speech transcription, OCR, object and deepfake detection, video-to-text summarization, and claim verification. ShortCheck is validated by evaluating it on two manually annotated datasets with TikTok videos in a multilingual setting. The pipeline achieves promising results with F1-weighted score over 70\%.
- Abstract(参考訳): TikTokのようなショートフォームビデオプラットフォームは、マルチモーダルでダイナミックでノイズの多いコンテンツのために、誤情報検出にユニークな課題を提示している。
ユーザフレンドリなインターフェースを備えたモジュール型の推論専用パイプラインであるShortCheckは、チェック可能なショートビデオを自動的に識別して、人間のファクトチェックを支援する。
このシステムは、音声の書き起こし、OCR、オブジェクトとディープフェイクの検出、ビデオとテキストの要約、クレームの検証を統合する。
ShortCheckは、TikTokビデオを使った2つの手動アノテーション付きデータセット上で、多言語設定で評価することで検証される。
パイプラインは、F1重み付けスコアが70\%を超える有望な結果を達成する。
関連論文リスト
- ARC-Hunyuan-Video-7B: Structured Video Comprehension of Real-World Shorts [56.75723197779384]
ARC-Hunyuan-Videoは、構造化理解のために視覚、音声、テキストの信号をエンドツーエンドに処理するマルチモーダルモデルである。
本モデルでは,複数粒度のタイムスタンプ付きビデオキャプションと要約,オープンなビデオ質問応答,時間的ビデオグラウンド,ビデオ推論が可能である。
論文 参考訳(メタデータ) (2025-07-28T15:52:36Z) - ViClaim: A Multilingual Multilabel Dataset for Automatic Claim Detection in Videos [8.163570757541125]
ViClaimは、3つの言語(英語、ドイツ語、スペイン語)と6つのトピックにわたる1,798の注釈付きビデオテキストのデータセットである。
転写文の各文には、クレーム関連カテゴリ: fact-check-worthy, fact-non-check-worthy, opinionの3つがラベル付けされている。
論文 参考訳(メタデータ) (2025-04-17T12:14:38Z) - Video-ChatGPT: Towards Detailed Video Understanding via Large Vision and Language Models [59.525108086957296]
Video-ChatGPTは、ビデオ適応型ビジュアルエンコーダとLLMをマージするマルチモーダルモデルである。
ビデオに関する詳細な会話を理解し、生成することができる。
我々は,ビデオチャットGPTのトレーニングに使用される10,000対のビデオ命令ペアの新しいデータセットを提案する。
論文 参考訳(メタデータ) (2023-06-08T17:59:56Z) - Perception Test: A Diagnostic Benchmark for Multimodal Video Models [78.64546291816117]
本稿では,事前学習したマルチモーダルモデルの知覚と推論能力を評価するために,新しいマルチモーダルビデオベンチマークを提案する。
知覚テストは、スキル(記憶、抽象化、物理学、セマンティックス)と、ビデオ、オーディオ、テキストモダリティ間の推論(記述的、説明的、予測的、反ファクト的)のタイプに焦点を当てている。
このベンチマークは、ゼロショット/少数ショットまたは限定的な微調整方式で、転送機能の事前訓練されたモデルを探索する。
論文 参考訳(メタデータ) (2023-05-23T07:54:37Z) - Multimodal Short Video Rumor Detection System Based on Contrastive
Learning [3.4192832062683842]
中国のショートビデオプラットフォームは、フェイクニュースの拡散の場として徐々に肥大化してきた。
短いビデオの噂を区別することは、大量の情報と共有機能のために大きな課題となる。
本研究グループは,マルチモーダルな特徴融合と外部知識の統合を包含する方法論を提案する。
論文 参考訳(メタデータ) (2023-04-17T16:07:00Z) - COVID-VTS: Fact Extraction and Verification on Short Video Platforms [32.59864792205225]
短時間のビデオを含むマルチモーダル情報をファクトチェックするための新しいベンチマークであるCOVID-VTSを導入する。
TwtrDetectiveは、異なるモードでトークンレベルの悪意のある改ざんを検出するために、クロスメディア整合性チェックを組み込んだ効果的なモデルである。
論文 参考訳(メタデータ) (2023-02-15T19:38:47Z) - TVLT: Textless Vision-Language Transformer [89.31422264408002]
テキストレス・ビジョン・ランゲージ変換器 (TVLT) では, 同種変換器ブロックが生の視覚・音声入力を行う。
TVLTはテキストベースの様々なマルチモーダルタスクに匹敵するパフォーマンスを実現している。
その結果,低レベルの視覚・音声信号から,コンパクトで効率的な視覚言語表現を学習できる可能性が示唆された。
論文 参考訳(メタデータ) (2022-09-28T15:08:03Z) - End-to-End Video Text Spotting with Transformer [86.46724646835627]
我々は、シンプルだが効果的なビデオテキスト検出・追跡・認識フレームワーク(TransDETR)を提案する。
TransDETRは、最初のエンドツーエンドのトレーニング可能なビデオテキストスポッティングフレームワークであり、3つのサブタスク(テキスト検出、追跡、認識など)を同時に扱う。
論文 参考訳(メタデータ) (2022-03-20T12:14:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。