論文の概要: Baitradar: A Multi-Model Clickbait Detection Algorithm Using Deep Learning
- arxiv url: http://arxiv.org/abs/2505.17448v1
- Date: Fri, 23 May 2025 04:08:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:33.806047
- Title: Baitradar: A Multi-Model Clickbait Detection Algorithm Using Deep Learning
- Title(参考訳): Baitradar:ディープラーニングを用いたマルチモデルクリックベイト検出アルゴリズム
- Authors: Bhanuka Gamage, Adnan Labib, Aisha Joomun, Chern Hong Lim, KokSheik Wong,
- Abstract要約: BaitRadarはディープラーニング技術を使って最終分類を決定する。
平均テスト精度は98%で、推定時間は2秒未満である。
- 参考スコア(独自算出の注目度): 9.320657506524151
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Following the rising popularity of YouTube, there is an emerging problem on this platform called clickbait, which provokes users to click on videos using attractive titles and thumbnails. As a result, users ended up watching a video that does not have the content as publicized in the title. This issue is addressed in this study by proposing an algorithm called BaitRadar, which uses a deep learning technique where six inference models are jointly consulted to make the final classification decision. These models focus on different attributes of the video, including title, comments, thumbnail, tags, video statistics and audio transcript. The final classification is attained by computing the average of multiple models to provide a robust and accurate output even in situation where there is missing data. The proposed method is tested on 1,400 YouTube videos. On average, a test accuracy of 98% is achieved with an inference time of less than 2s.
- Abstract(参考訳): YouTubeの人気が高まる中、Clickbaitというプラットフォームでは、ユーザーが魅力的なタイトルやサムネイルを使ってビデオをクリックすることを誘発する問題が発生している。
その結果、ユーザーはタイトルで公開されたコンテンツを持っていないビデオを見ることになった。
この問題はBaitRadarと呼ばれるアルゴリズムの提案によって解決される。このアルゴリズムは6つの推論モデルで最終分類決定を行うディープラーニング技術を用いている。
これらのモデルは、タイトル、コメント、サムネイル、タグ、ビデオ統計、オーディオ書き起こしなど、ビデオのさまざまな属性に焦点を当てている。
最終分類は、欠落したデータであっても、複数のモデルの平均を計算して、堅牢で正確な出力を提供することによって達成される。
提案手法は1400本のYouTubeビデオでテストされている。
平均テスト精度は98%で、推定時間は2秒未満である。
関連論文リスト
- Multi-Modal Video Feature Extraction for Popularity Prediction [2.1149978544067154]
本研究は,ビデオ自体とその関連機能を用いて,ショートビデオの人気を予測することを目的としている。
人気度は、ビューカウント、例えば、コメントカウント、シェアカウントの4つの主要なエンゲージメント指標によって測定される。
本研究では,異なるアーキテクチャの映像分類モデルとトレーニング手法をバックボーンネットワークとして利用し,映像モダリティの特徴を抽出する。
論文 参考訳(メタデータ) (2025-01-02T18:59:36Z) - Sparrow: Data-Efficient Video-LLM with Text-to-Image Augmentation [98.92677830223786]
この研究は、合成データによるスケーリングを再考し、データ中心の観点からビデオLLMの開発に焦点を当てる。
本研究では,純粋なテキスト命令データからビデオライクなサンプルを合成するSparrowというデータ拡張手法を提案する。
提案手法は,多くのサンプルを用いてトレーニングしたベースラインに匹敵する,あるいは優れた性能を実現する。
論文 参考訳(メタデータ) (2024-11-29T18:59:54Z) - Building an Open-Vocabulary Video CLIP Model with Better Architectures,
Optimization and Data [102.0069667710562]
本稿では,CLIPを強力なゼロショットビデオ分類器に適応させるフレームワークであるOpen-VCLIP++を提案する。
我々は,Open-VCLIP++のトレーニングが,履歴データゼロで連続的な学習に欠かせないことを実証した。
提案手法は,広く使用されている3つの行動認識データセットを用いて評価する。
論文 参考訳(メタデータ) (2023-10-08T04:46:43Z) - Active Learning for Video Classification with Frame Level Queries [13.135234328352885]
ビデオ分類のための新しいアクティブラーニングフレームワークを提案する。
本フレームワークでは,ビデオ毎に一組の映像と,一組の情報フレームを識別する。
これは、ラベルを付けるための完全なビデオを見るよりも、手作業で作業する方がずっと少ない。
論文 参考訳(メタデータ) (2023-07-10T15:47:13Z) - Overlooked Video Classification in Weakly Supervised Video Anomaly
Detection [4.162019309587633]
本稿では,BERT や LSTM を用いた映像分類管理の能力について検討する。
このBERTまたはLSTMにより、ビデオの全スニペットのCNN機能は、ビデオ分類に使用できる単一の機能に集約できる。
このシンプルだが強力なビデオ分類監督は、MILフレームワークに組み合わされ、3つの主要なビデオ異常検出データセットすべてに対して、驚くほどのパフォーマンス改善をもたらす。
論文 参考訳(メタデータ) (2022-10-13T03:00:22Z) - Misinformation Detection on YouTube Using Video Captions [6.503828590815483]
本研究では,最新のNLP技術を用いて映像キャプション(字幕)から特徴を抽出する手法を提案する。
提案手法を評価するために,動画を誤情報か否かを分類するために,公開アクセス可能なラベル付きデータセットを用いた。
論文 参考訳(メタデータ) (2021-07-02T10:02:36Z) - Few-Shot Learning for Video Object Detection in a Transfer-Learning
Scheme [70.45901040613015]
ビデオ物体検出のための数発学習の新たな課題について検討する。
我々は,多数のベースクラスオブジェクトに対して映像物体検出を効果的に訓練するトランスファー学習フレームワークと,ノベルクラスオブジェクトのいくつかのビデオクリップを用いる。
論文 参考訳(メタデータ) (2021-03-26T20:37:55Z) - Less is More: ClipBERT for Video-and-Language Learning via Sparse
Sampling [98.41300980759577]
ビデオと言語の学習に対する標準的なアプローチは、オフラインで抽出された高密度ビデオ機能から学習するニューラルネットワークを規定する。
本稿では,ビデオ・言語タスクに対して,手頃なエンドツーエンド学習を可能にする汎用フレームワークClipBERTを提案する。
6つのデータセットにおけるテキスト・ビデオ検索とビデオ質問応答の実験は、ClipBERTが既存の手法より優れていることを示した。
論文 参考訳(メタデータ) (2021-02-11T18:50:16Z) - Generalized Few-Shot Video Classification with Video Retrieval and
Feature Generation [132.82884193921535]
従来の手法は,映像特徴学習の重要性を過小評価し,二段階的アプローチを提案する。
この単純なベースラインアプローチは、既存のベンチマークで20ポイント以上の精度で、以前の数ショットビデオ分類方法よりも優れていることを示す。
さらなる改善をもたらす2つの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-09T13:05:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。