論文の概要: A Novel BERT-based Classifier to Detect Political Leaning of YouTube Videos based on their Titles
- arxiv url: http://arxiv.org/abs/2404.04261v1
- Date: Fri, 16 Feb 2024 14:44:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 12:08:31.197865
- Title: A Novel BERT-based Classifier to Detect Political Leaning of YouTube Videos based on their Titles
- Title(参考訳): BERTをベースとした新しい分類法によるYouTubeビデオの政治的傾向の検出
- Authors: Nouar AlDahoul, Talal Rahwan, Yasir Zaki,
- Abstract要約: アメリカの成人の4分の1が定期的にYouTubeからニュースを受け取っている。
そこで我々は,YouTubeビデオのタイトルに基づいて,Farleft,Left,Center,Anti-Woke,Right,Far Rightの6つのカテゴリに分類する新しい分類法を提案する。
ほとんどのケースでは、予測された政治的傾きは通信社と一致している。
- 参考スコア(独自算出の注目度): 1.6647208383676708
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A quarter of US adults regularly get their news from YouTube. Yet, despite the massive political content available on the platform, to date no classifier has been proposed to identify the political leaning of YouTube videos. To fill this gap, we propose a novel classifier based on Bert -- a language model from Google -- to classify YouTube videos merely based on their titles into six categories, namely: Far Left, Left, Center, Anti-Woke, Right, and Far Right. We used a public dataset of 10 million YouTube video titles (under various categories) to train and validate the proposed classifier. We compare the classifier against several alternatives that we trained on the same dataset, revealing that our classifier achieves the highest accuracy (75%) and the highest F1 score (77%). To further validate the classification performance, we collect videos from YouTube channels of numerous prominent news agencies, such as Fox News and New York Times, which have widely known political leanings, and apply our classifier to their video titles. For the vast majority of cases, the predicted political leaning matches that of the news agency.
- Abstract(参考訳): アメリカの成人の4分の1が定期的にYouTubeからニュースを受け取っている。
しかし、プラットフォーム上で利用できる膨大な政治的コンテンツにもかかわらず、YouTubeビデオの政治的傾向を特定するための分類器は提案されていない。
このギャップを埋めるために、Googleの言語モデルであるBertをベースにした新しい分類法を提案し、彼らのタイトルに基づいたYouTubeビデオを、Farleft、Left、Center、Anti-Woke、Right、Far Rightの6つのカテゴリに分類する。
提案した分類器のトレーニングと検証には、1000万本のYouTubeビデオタイトル(さまざまなカテゴリ)の公開データセットを使用しました。
我々は、分類器を同じデータセットでトレーニングしたいくつかの選択肢と比較し、分類器が最高精度(75%)と最高F1スコア(77%)を達成していることを明らかにした。
分類性能をさらに検証するために、Fox NewsやNew York Timesなどの著名なニュース機関のYouTubeチャンネルから、政治的傾向が広く知られているビデオを収集し、分類器を彼らのビデオタイトルに適用する。
ほとんどのケースでは、予測された政治的傾きは通信社と一致している。
関連論文リスト
- Computational Assessment of Hyperpartisanship in News Titles [55.92100606666497]
われわれはまず、超党派ニュースタイトル検出のための新しいデータセットを開発するために、人間の誘導する機械学習フレームワークを採用する。
全体的に右派メディアは比例的に超党派的なタイトルを使う傾向にある。
我々は、外国問題、政治システム、ニュースタイトルにおける過党主義を示唆する社会問題を含む3つの主要なトピックを識別する。
論文 参考訳(メタデータ) (2023-01-16T05:56:58Z) - Unveiling the Hidden Agenda: Biases in News Reporting and Consumption [59.55900146668931]
イタリアのワクチン論争に関する6年間のデータセットを構築し、物語と選択バイアスを特定するためにベイジアン潜在空間モデルを採用する。
バイアスとエンゲージメントの間に非線形な関係が見られ、極端な位置へのエンゲージメントが高くなった。
Twitter上でのニュース消費の分析は、同様のイデオロギー的な立場のニュースメディアの間で、一般的なオーディエンスを明らかにしている。
論文 参考訳(メタデータ) (2023-01-14T18:58:42Z) - Navigating an Ocean of Video Data: Deep Learning for Humpback Whale
Classification in YouTube Videos [0.0]
我々は、YouTubeビデオの分類にImageNetデータセットで事前訓練されたCNNRNNアーキテクチャを使用する。
平均85.7%の精度、84.7%(無関係)/86.6%(関連)のF1スコアを5倍のクロスバリデーションを用いて達成した。
深層学習は、ソーシャルメディアを生物多様性評価のための画像およびビデオデータの有効源とするために、時間効率のよいステップとして利用できることを示す。
論文 参考訳(メタデータ) (2022-12-01T19:19:46Z) - Top Gear or Black Mirror: Inferring Political Leaning From Non-Political
Content [8.435739379764408]
分極とエコーチャンバーは選挙のような明確な政治的出来事の文脈でしばしば研究される。
非政治的文脈における政治的分極は、しばしば不明である。
政治的傾きは「ラテ・ドライキング・リベラル」のようなステレオタイプにつながる多くのライフスタイルの選択と相関することが知られている。
論文 参考訳(メタデータ) (2022-08-11T06:41:23Z) - Misinformation Detection on YouTube Using Video Captions [6.503828590815483]
本研究では,最新のNLP技術を用いて映像キャプション(字幕)から特徴を抽出する手法を提案する。
提案手法を評価するために,動画を誤情報か否かを分類するために,公開アクセス可能なラベル付きデータセットを用いた。
論文 参考訳(メタデータ) (2021-07-02T10:02:36Z) - Examining the consumption of radical content on YouTube [1.2820564400223966]
近年、YouTubeの規模は、YouTubeユーザーが偏見のあるレコメンデーションと、表面上は非政治的なアンチ・ウォークチャンネルの組み合わせによって過激化しているという懸念を喚起している。
ここでは、30万人以上のアメリカ人の代表パネルと個人レベルの閲覧行動を用いて、この仮説を検証する。
極右コンテンツへのエンゲージメントがYouTubeのレコメンデーションによって体系的に引き起こされているという証拠も、反煙チャンネルが極右への入り口として機能しているという明確な証拠も見つからない。
論文 参考訳(メタデータ) (2020-11-25T16:00:20Z) - Cross-Domain Learning for Classifying Propaganda in Online Contents [67.10699378370752]
本稿では,ラベル付き文書や,ニュースやつぶやきからの文をベースとしたクロスドメイン学習の手法を提案する。
本実験は,本手法の有効性を実証し,移動過程におけるソースやターゲットの様々な構成における困難さと限界を同定する。
論文 参考訳(メタデータ) (2020-11-13T10:19:13Z) - Understanding YouTube Communities via Subscription-based Channel
Embeddings [0.0]
本稿では,YouTubeチャンネルの発見と分類を行う新しい手法を提案する。
これらの手法は、コメントの公開購読ページを活用する自己教師付き学習アプローチを使用する。
異なる政治コンテンツへのトラフィック量を分析するために、新しいデータセットを作成します。
論文 参考訳(メタデータ) (2020-10-19T22:00:04Z) - LTIatCMU at SemEval-2020 Task 11: Incorporating Multi-Level Features for
Multi-Granular Propaganda Span Identification [70.1903083747775]
本稿では,新聞記事におけるプロパガンダ・スパン識別の課題について述べる。
本稿では,BERT-BiLSTMに基づくプロパガンダ分類モデルを提案する。
論文 参考訳(メタデータ) (2020-08-11T16:14:47Z) - Political audience diversity and news reliability in algorithmic ranking [54.23273310155137]
本稿では,ウェブサイトのオーディエンスの政治的多様性を質の指標として活用することを提案する。
ドメインの専門家によるニュースソースの信頼性評価と6,890人の米国市民の多様なサンプルによるWebブラウジングデータを用いて、より極端な、政治的に多様性の低いWebサイトが、ジャーナリストの基準を低くしていることを示す。
論文 参考訳(メタデータ) (2020-07-16T02:13:55Z) - Generalized Few-Shot Video Classification with Video Retrieval and
Feature Generation [132.82884193921535]
従来の手法は,映像特徴学習の重要性を過小評価し,二段階的アプローチを提案する。
この単純なベースラインアプローチは、既存のベンチマークで20ポイント以上の精度で、以前の数ショットビデオ分類方法よりも優れていることを示す。
さらなる改善をもたらす2つの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-09T13:05:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。