論文の概要: Misinformation Detection on YouTube Using Video Captions
- arxiv url: http://arxiv.org/abs/2107.00941v1
- Date: Fri, 2 Jul 2021 10:02:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-05 13:03:58.096428
- Title: Misinformation Detection on YouTube Using Video Captions
- Title(参考訳): Video Captionsを用いたYouTube上の誤情報検出
- Authors: Raj Jagtap, Abhinav Kumar, Rahul Goel, Shakshi Sharma, Rajesh Sharma,
Clint P. George
- Abstract要約: 本研究では,最新のNLP技術を用いて映像キャプション(字幕)から特徴を抽出する手法を提案する。
提案手法を評価するために,動画を誤情報か否かを分類するために,公開アクセス可能なラベル付きデータセットを用いた。
- 参考スコア(独自算出の注目度): 6.503828590815483
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Millions of people use platforms such as YouTube, Facebook, Twitter, and
other mass media. Due to the accessibility of these platforms, they are often
used to establish a narrative, conduct propaganda, and disseminate
misinformation. This work proposes an approach that uses state-of-the-art NLP
techniques to extract features from video captions (subtitles). To evaluate our
approach, we utilize a publicly accessible and labeled dataset for classifying
videos as misinformation or not. The motivation behind exploring video captions
stems from our analysis of videos metadata. Attributes such as the number of
views, likes, dislikes, and comments are ineffective as videos are hard to
differentiate using this information. Using caption dataset, the proposed
models can classify videos among three classes (Misinformation, Debunking
Misinformation, and Neutral) with 0.85 to 0.90 F1-score. To emphasize the
relevance of the misinformation class, we re-formulate our classification
problem as a two-class classification - Misinformation vs. others (Debunking
Misinformation and Neutral). In our experiments, the proposed models can
classify videos with 0.92 to 0.95 F1-score and 0.78 to 0.90 AUC ROC.
- Abstract(参考訳): 何百万人もの人々がyoutube、facebook、twitterなどのマスメディアを利用している。
これらのプラットフォームへのアクセシビリティのため、物語を確立し、プロパガンダを行い、誤情報を広めるためにしばしば使用される。
本研究では,最新のNLP技術を用いて映像キャプション(字幕)から特徴を抽出する手法を提案する。
提案手法を評価するために,動画を誤情報か否かを分類するために,公開アクセス可能なラベル付きデータセットを用いた。
ビデオキャプションを探索する動機は、ビデオメタデータの分析にある。
ビュー数、いいね!、嫌い、コメントなどの属性は、ビデオがこの情報を使って区別することが難しいため、効果がない。
提案手法では,キャプションデータセットを用いて0.85から0.90 f1-scoreの3種類(誤報,誤報,中立)の動画を分類できる。
誤情報クラスの関連性を強調するため,我々はこの分類問題を,誤情報と他者(誤情報と中立性)の2類分類として再定式化する。
提案手法では,0.92から0.95 f1-score,0.78から0.90 auc rocの動画を分類できる。
関連論文リスト
- A Novel BERT-based Classifier to Detect Political Leaning of YouTube Videos based on their Titles [1.6647208383676708]
アメリカの成人の4分の1が定期的にYouTubeからニュースを受け取っている。
そこで我々は,YouTubeビデオのタイトルに基づいて,Farleft,Left,Center,Anti-Woke,Right,Far Rightの6つのカテゴリに分類する新しい分類法を提案する。
ほとんどのケースでは、予測された政治的傾きは通信社と一致している。
論文 参考訳(メタデータ) (2024-02-16T14:44:30Z) - Building an Open-Vocabulary Video CLIP Model with Better Architectures,
Optimization and Data [102.0069667710562]
本稿では,CLIPを強力なゼロショットビデオ分類器に適応させるフレームワークであるOpen-VCLIP++を提案する。
我々は,Open-VCLIP++のトレーニングが,履歴データゼロで連続的な学習に欠かせないことを実証した。
提案手法は,広く使用されている3つの行動認識データセットを用いて評価する。
論文 参考訳(メタデータ) (2023-10-08T04:46:43Z) - Text-to-feature diffusion for audio-visual few-shot learning [59.45164042078649]
ビデオデータから学ぶことは難しいし、あまり研究されていないが、もっと安いセットアップだ。
3つのデータセットに対して,音声・視覚的数ショット映像分類ベンチマークを導入する。
AV-DIFFは,提案した音声・視覚的少数ショット学習のベンチマークにおいて,最先端の性能が得られることを示す。
論文 参考訳(メタデータ) (2023-09-07T17:30:36Z) - Identifying Misinformation on YouTube through Transcript Contextual
Analysis with Transformer Models [1.749935196721634]
本稿では,コンテンツの正確性に着目した映像分類手法を提案する。
我々は、分類課題を解決するためにトランスファーラーニングのような高度な機械学習技術を採用している。
トレーニングされたモデルを、(a)YouTube Vaccine-misinformation関連ビデオ、(b)YouTube Pseudoscienceビデオ、(c)Fake-Newsデータセットの3つのデータセットに適用する。
論文 参考訳(メタデータ) (2023-07-22T19:59:16Z) - Automatic Generation of Labeled Data for Video-Based Human Pose Analysis
via NLP applied to YouTube Subtitles [2.039924457892648]
オンラインで利用可能なフィットネスビデオの多さを活用する手法を提案する。
私たちは、ビデオがエクササイズを示すだけでなく、追加の情報ソースとして言語を提供するという利点を生かしています。
論文 参考訳(メタデータ) (2023-03-23T15:55:33Z) - Auditing YouTube's Recommendation Algorithm for Misinformation Filter
Bubbles [0.5898451150401338]
本研究では,ユーザが誤報フィルタバブルにどの程度の速さで到達できるかを調査するため,YouTube上で実施した監査研究の結果を報告する。
そこで我々は,事前にプログラムされたエージェント(YouTubeユーザとして活動する)が,偽情報の宣伝コンテンツを見て誤情報フィルタバブルを掘り下げる,靴下人形監査手法を採用した。
その後、彼らはバブルを破裂させ、誤った情報を流すコンテンツを見て、よりバランスのとれたレコメンデーションに到達しようと試みる。
論文 参考訳(メタデータ) (2022-10-18T18:27:47Z) - Boosting Video Representation Learning with Multi-Faceted Integration [112.66127428372089]
ビデオコンテンツは多面的であり、オブジェクト、シーン、インタラクション、アクションで構成されている。
既存のデータセットは、主にモデルトレーニングのファセットの1つだけをラベル付けする。
我々は,ビデオコンテンツの全スペクトルを反映した表現を学習するために,異なるデータセットから顔データを集約する,MUFI(MUlti-Faceted Integration)という新たな学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-11T16:14:23Z) - Few-Shot Learning for Video Object Detection in a Transfer-Learning
Scheme [70.45901040613015]
ビデオ物体検出のための数発学習の新たな課題について検討する。
我々は,多数のベースクラスオブジェクトに対して映像物体検出を効果的に訓練するトランスファー学習フレームワークと,ノベルクラスオブジェクトのいくつかのビデオクリップを用いる。
論文 参考訳(メタデータ) (2021-03-26T20:37:55Z) - Less is More: ClipBERT for Video-and-Language Learning via Sparse
Sampling [98.41300980759577]
ビデオと言語の学習に対する標準的なアプローチは、オフラインで抽出された高密度ビデオ機能から学習するニューラルネットワークを規定する。
本稿では,ビデオ・言語タスクに対して,手頃なエンドツーエンド学習を可能にする汎用フレームワークClipBERTを提案する。
6つのデータセットにおけるテキスト・ビデオ検索とビデオ質問応答の実験は、ClipBERTが既存の手法より優れていることを示した。
論文 参考訳(メタデータ) (2021-02-11T18:50:16Z) - Self-supervised Video Representation Learning Using Inter-intra
Contrastive Framework [43.002621928500425]
ビデオから特徴表現を学習するための自己教師付き手法を提案する。
映像表現が重要であるので、負のサンプルを非負のサンプルによって拡張する。
学習した映像表現を用いて,映像検索と映像認識タスクの実験を行う。
論文 参考訳(メタデータ) (2020-08-06T09:08:14Z) - Generalized Few-Shot Video Classification with Video Retrieval and
Feature Generation [132.82884193921535]
従来の手法は,映像特徴学習の重要性を過小評価し,二段階的アプローチを提案する。
この単純なベースラインアプローチは、既存のベンチマークで20ポイント以上の精度で、以前の数ショットビデオ分類方法よりも優れていることを示す。
さらなる改善をもたらす2つの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-09T13:05:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。