論文の概要: Automatic Classification of News Subjects in Broadcast News: Application to a Gender Bias Representation Analysis
- arxiv url: http://arxiv.org/abs/2407.14180v1
- Date: Fri, 19 Jul 2024 10:15:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 18:04:03.531755
- Title: Automatic Classification of News Subjects in Broadcast News: Application to a Gender Bias Representation Analysis
- Title(参考訳): ニュースニュースにおけるニュース記事の自動分類 : ジェンダーバイアス表現解析への応用
- Authors: Valentin Pelloin, Lena Dodson, Émile Chapuis, Nicolas Hervé, David Doukhan,
- Abstract要約: 本稿では,フランステレビやラジオニュースで取り上げられる話題におけるジェンダー分布の偏りを列挙する計算フレームワークを提案する。
我々は、2023年に21のフランス語チャンネルで放送された11.7k時間のデータセットを転写した。
スポーツ,政治,紛争などの主題において,女性が顕著に表現されていないことを示す。
- 参考スコア(独自算出の注目度): 1.4100823284870105
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper introduces a computational framework designed to delineate gender distribution biases in topics covered by French TV and radio news. We transcribe a dataset of 11.7k hours, broadcasted in 2023 on 21 French channels. A Large Language Model (LLM) is used in few-shot conversation mode to obtain a topic classification on those transcriptions. Using the generated LLM annotations, we explore the finetuning of a specialized smaller classification model, to reduce the computational cost. To evaluate the performances of these models, we construct and annotate a dataset of 804 dialogues. This dataset is made available free of charge for research purposes. We show that women are notably underrepresented in subjects such as sports, politics and conflicts. Conversely, on topics such as weather, commercials and health, women have more speaking time than their overall average across all subjects. We also observe representations differences between private and public service channels.
- Abstract(参考訳): 本稿では,フランステレビやラジオニュースで取り上げられる話題におけるジェンダー分布の偏りを列挙する計算フレームワークを提案する。
我々は、2023年に21のフランス語チャンネルで放送された11.7k時間のデータセットを転写した。
LLM(Large Language Model)は、これらの文字のトピック分類を得るために、数ショットの会話モードで使用される。
生成されたLLMアノテーションを用いて,より小さな分類モデルの微調整を行い,計算コストを削減する。
これらのモデルの性能を評価するために,804対話のデータセットを構築し,注釈付けする。
このデータセットは研究目的で無償で利用できる。
スポーツ,政治,紛争などの主題において,女性が顕著に表現されていないことを示す。
逆に、天気、商業、健康などのトピックでは、女性は全科目の平均よりも話す時間が多い。
また、プライベート・サービス・チャンネルとパブリック・サービス・チャンネルの差異を観察する。
関連論文リスト
- Everyone deserves their voice to be heard: Analyzing Predictive Gender Bias in ASR Models Applied to Dutch Speech Data [13.91630413828167]
本研究は,オランダ語音声データに基づくWhisperモデルの性能格差の同定に焦点をあてる。
性別グループ間の単語誤り率,文字誤り率,BERTに基づく意味的類似性を解析した。
論文 参考訳(メタデータ) (2024-11-14T13:29:09Z) - Spoken Stereoset: On Evaluating Social Bias Toward Speaker in Speech Large Language Models [50.40276881893513]
本研究では,音声大言語モデル(SLLM)における社会的バイアスの評価を目的としたデータセットであるSpken Stereosetを紹介する。
多様な人口集団の発話に対して異なるモデルがどのように反応するかを調べることで、これらのバイアスを特定することを目指している。
これらの結果から,ほとんどのモデルではバイアスが最小であるが,ステレオタイプや反ステレオタイプ傾向がわずかにみられた。
論文 参考訳(メタデータ) (2024-08-14T16:55:06Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Gender Representation in TV and Radio: Automatic Information Extraction methods versus Manual Analyses [1.1708479580628022]
本研究は,テレビやラジオにおけるジェンダー表現の相違を記述するために,自動情報抽出記述子と手動分析の関係について検討する。
発見は、すべてのディスクリプタで男性に比べて女性が少なすぎるという、全身的な性別の不均衡を浮き彫りにする。
論文 参考訳(メタデータ) (2024-06-14T16:05:43Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - GenderedNews: Une approche computationnelle des \'ecarts de
repr\'esentation des genres dans la presse fran\c{c}aise [0.0]
GenderedNews (urlhttps://gendered-news.imag.fr)は、フランスのオンラインメディアで毎週男女不均衡を計測するオンラインダッシュボードである。
メディアにおけるジェンダーの不平等の定量化には自然言語処理(NLP)手法を用いる。
毎日収集されるデータ(フランスのオンラインニュースメディアの7つの主要タイトル)と、メトリクスの背後にある方法論について説明する。
論文 参考訳(メタデータ) (2022-02-11T15:16:49Z) - Gender bias in magazines oriented to men and women: a computational
approach [58.720142291102135]
女性指向の雑誌の内容と男性指向の雑誌の内容を比較する。
トピック・モデリングの手法により、雑誌で議論されている主要なテーマを特定し、これらのトピックの存在が時間とともに雑誌間でどの程度異なるかを定量化する。
以上の結果から,セクシュアオブジェクトとしての家族,ビジネス,女性の出現頻度は,時間とともに消失する傾向にあることが示唆された。
論文 参考訳(メタデータ) (2020-11-24T14:02:49Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z) - VIOLIN: A Large-Scale Dataset for Video-and-Language Inference [103.7457132841367]
ビデオとテキストのマルチモーダル理解のための新しいタスク, Video-and-Language Inferenceを導入する。
サブタイトルを前提としたビデオクリップと、そのビデオコンテンツに基づいて自然言語仮説とをペアリングすると、モデルは、その仮説が所定のビデオクリップに関連付けられているか、矛盾しているかを推測する必要がある。
このタスクには、Violin(VIdeO-and-Language Inference)という名の新しい大規模データセットが導入された。
論文 参考訳(メタデータ) (2020-03-25T20:39:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。