論文の概要: Learning Unbiased News Article Representations: A Knowledge-Infused
Approach
- arxiv url: http://arxiv.org/abs/2309.05981v1
- Date: Tue, 12 Sep 2023 06:20:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 14:21:26.432163
- Title: Learning Unbiased News Article Representations: A Knowledge-Infused
Approach
- Title(参考訳): 曖昧なニュース記事表現の学習 : 知識を融合したアプローチ
- Authors: Sadia Kamal, Jimmy Hartford, Jeremy Willis, Arunkumar Bagavathi
- Abstract要約: 本研究では,グローバル・ローカル・コンテクストを用いて,ニュース記事の非バイアス表現を学習する知識注入型ディープラーニングモデルを提案する。
提案手法は,アルゴリズムによる政治的偏見を緩和し,記事の政治的傾きを最大73%の精度で予測する基礎的手法より優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantification of the political leaning of online news articles can aid in
understanding the dynamics of political ideology in social groups and measures
to mitigating them. However, predicting the accurate political leaning of a
news article with machine learning models is a challenging task. This is due to
(i) the political ideology of a news article is defined by several factors, and
(ii) the innate nature of existing learning models to be biased with the
political bias of the news publisher during the model training. There is only a
limited number of methods to study the political leaning of news articles which
also do not consider the algorithmic political bias which lowers the
generalization of machine learning models to predict the political leaning of
news articles published by any new news publishers. In this work, we propose a
knowledge-infused deep learning model that utilizes relatively reliable
external data resources to learn unbiased representations of news articles
using their global and local contexts. We evaluate the proposed model by
setting the data in such a way that news domains or news publishers in the test
set are completely unseen during the training phase. With this setup we show
that the proposed model mitigates algorithmic political bias and outperforms
baseline methods to predict the political leaning of news articles with up to
73% accuracy.
- Abstract(参考訳): オンラインニュース記事の政治的傾倒の定量化は、社会集団における政治イデオロギーのダイナミクスを理解するのに役立つ。
しかし、機械学習モデルによるニュース記事の正確な政治的傾きを予測することは難しい課題である。
これは
一 ニュース記事の政治イデオロギーは、いくつかの要因により定義される。
(ii)既存の学習モデルの生来の性質は、モデルトレーニング中にニュース発行者の政治的偏見に偏る。
新たなニュース発行者が発行するニュース記事の政治的傾倒を予測するために、機械学習モデルの一般化を低下させるアルゴリズム的政治的バイアスを考慮しない、ニュース記事の政治的傾倒を研究する方法は限られている。
本研究では,比較的信頼性の高い外部データ資源を用いて,ニュース記事の偏りのない表現をグローバル・ローカルの文脈を用いて学習する,知識を融合した深層学習モデルを提案する。
テストセット内のニュースドメインやニュースパブリッシャが、トレーニング期間中に完全に見えなくなるような方法で、データを設定することにより、提案モデルを評価する。
この設定により,提案手法はアルゴリズム的政治的バイアスを軽減し,73%の精度でニュース記事の政治的傾倒を予測できるベースライン手法を上回った。
関連論文リスト
- Balancing Transparency and Accuracy: A Comparative Analysis of Rule-Based and Deep Learning Models in Political Bias Classification [5.550237524713089]
この研究は、制約のないデータ摂取に対する現代の自己学習システムの感受性を強調している。
両モデルを左利き(CNN)と右利き(FOX)のニュース記事に適用し、元のトレーニングやテストセットを超えたデータ上での有効性を評価する。
深層学習モデルの不透明なアーキテクチャと言語情報に基づくルールベースモデルの透明性を対比する。
論文 参考訳(メタデータ) (2024-11-07T00:09:18Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では、AI言語モデルにおけるパルチザンバイアスが政治的意思決定に及ぼす影響について検討する。
政治的に偏見のあるモデルに晒された参加者は、意見を採用し、AIの偏見と一致した決定を下す可能性が著しく高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - Quantitative Analysis of Forecasting Models:In the Aspect of Online
Political Bias [0.0]
ソーシャルメディア投稿を5つの異なる政治傾向カテゴリーに分類する手法を提案する。
我々のアプローチは、政治的イデオロギーの異なる2つのソーシャルメディアデータセット上で、既存の時系列予測モデルを活用することである。
論文 参考訳(メタデータ) (2023-09-11T16:17:24Z) - Towards Corpus-Scale Discovery of Selection Biases in News Coverage:
Comparing What Sources Say About Entities as a Start [65.28355014154549]
本稿では,大規模ニュースコーパスにおけるニュースコンテンツから直接メディア選択バイアスのパターンを発見するために,スケーラブルなNLPシステムを構築する上での課題について検討する。
我々は,世界519のニュースソースから180万件のニュース記事のコーパスであるNELA-2020のケーススタディを通じて,フレームワークの能力を示す。
論文 参考訳(メタデータ) (2023-04-06T23:36:45Z) - Unveiling the Hidden Agenda: Biases in News Reporting and Consumption [59.55900146668931]
イタリアのワクチン論争に関する6年間のデータセットを構築し、物語と選択バイアスを特定するためにベイジアン潜在空間モデルを採用する。
バイアスとエンゲージメントの間に非線形な関係が見られ、極端な位置へのエンゲージメントが高くなった。
Twitter上でのニュース消費の分析は、同様のイデオロギー的な立場のニュースメディアの間で、一般的なオーディエンスを明らかにしている。
論文 参考訳(メタデータ) (2023-01-14T18:58:42Z) - NeuS: Neutral Multi-News Summarization for Mitigating Framing Bias [54.89737992911079]
様々な政治スペクトルの複数のニュース見出しから中立的な要約を生成する新しい課題を提案する。
最も興味深い観察の1つは、生成モデルは、事実的に不正確なコンテンツや検証不可能なコンテンツだけでなく、政治的に偏ったコンテンツにも幻覚を与えることができることである。
論文 参考訳(メタデータ) (2022-04-11T07:06:01Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - A Machine Learning Pipeline to Examine Political Bias with Congressional
Speeches [0.3062386594262859]
私たちは、2つのイデオロギー的に多様なソーシャルメディアフォーラム、GabとTwitterで、政治的偏見を研究するための機械学習アプローチを提供します。
提案手法は,米国議会の政治演説から収集したテキストを用いて,そのデータをラベル付けする手法である。
また、カスケードとテキストの特徴を組み合わせて、カスケードの政治的偏見を約85%の精度で予測する機械学習アプローチを提案する。
論文 参考訳(メタデータ) (2021-09-18T21:15:21Z) - Analyzing Political Bias and Unfairness in News Articles at Different
Levels of Granularity [35.19976910093135]
本論文では, 偏見の自動検出だけでなく, 政治的偏見や不公平さが言語的にどのように表現されるかについても検討する。
我々は,adfontesmedia.comから派生したラベル付き6964ニュース記事の新しいコーパスを活用し,バイアス評価のためのニューラルモデルを開発した。
論文 参考訳(メタデータ) (2020-10-20T22:25:00Z) - We Can Detect Your Bias: Predicting the Political Ideology of News
Articles [35.761722515882646]
我々は、政治的イデオロギーのために手動で注釈付けされた34,737項目のデータセットを公表した。
私たちは、テスト例がトレーニング中に見られなかったメディアから得られる、挑戦的な実験的なセットアップを使用しています。
実験結果から,最先端の事前学習型トランスに比べて非常に大きな改善が得られた。
論文 参考訳(メタデータ) (2020-10-11T20:27:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。