論文の概要: Viable Threat on News Reading: Generating Biased News Using Natural
Language Models
- arxiv url: http://arxiv.org/abs/2010.02150v1
- Date: Mon, 5 Oct 2020 16:55:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 22:06:08.844231
- Title: Viable Threat on News Reading: Generating Biased News Using Natural
Language Models
- Title(参考訳): ニュース読解における有効な脅威: 自然言語モデルを用いた偏りのあるニュースの生成
- Authors: Saurabh Gupta, Huy H. Nguyen, Junichi Yamagishi and Isao Echizen
- Abstract要約: 公開されている言語モデルは、入力されたオリジナルニュースに基づいてバイアスのあるニュースコンテンツを確実に生成できることを示す。
また、制御可能なテキスト生成を用いて、多数の高品質な偏りのあるニュース記事を生成することができることを示す。
- 参考スコア(独自算出の注目度): 49.90665530780664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in natural language generation has raised serious
concerns. High-performance language models are widely used for language
generation tasks because they are able to produce fluent and meaningful
sentences. These models are already being used to create fake news. They can
also be exploited to generate biased news, which can then be used to attack
news aggregators to change their reader's behavior and influence their bias. In
this paper, we use a threat model to demonstrate that the publicly available
language models can reliably generate biased news content based on an input
original news. We also show that a large number of high-quality biased news
articles can be generated using controllable text generation. A subjective
evaluation with 80 participants demonstrated that the generated biased news is
generally fluent, and a bias evaluation with 24 participants demonstrated that
the bias (left or right) is usually evident in the generated articles and can
be easily identified.
- Abstract(参考訳): 自然言語生成の最近の進歩は深刻な懸念を引き起こしている。
高性能な言語モデルは、フルーエントで有意義な文を生成することができるため、言語生成タスクに広く使われている。
これらのモデルは、すでにフェイクニュースの作成に使われている。
バイアスニュースを生成するために利用することも可能で、ニュースアグリゲータを攻撃して読者の行動を変え、バイアスに影響を与えることができる。
本稿では,公開言語モデルが入力元ニュースに基づいて偏りのあるニュースコンテンツを確実に生成できることを,脅威モデルを用いて実証する。
また,制御可能なテキスト生成を用いて,高品質のバイアス付きニュース記事を大量に生成できることを示した。
80人の被験者による主観評価では、生成したバイアスニュースは一般的に流動的であることが示され、24人の被験者によるバイアス評価では、生成した記事のバイアス(左右)が通常明らかであり、容易に識別できることが示された。
関連論文リスト
- DocNet: Semantic Structure in Inductive Bias Detection Models [0.4779196219827508]
本稿では,文書におけるバイアス検出の見過ごされがちな側面として,ニュース記事の意味的構造について考察する。
本稿では,新しい,インダクティブで低リソースなドキュメント埋め込みとバイアス検出モデルであるDocNetを提案する。
また、文書レベルのグラフ埋め込みに代表される、対立するパルチザン側からのニュース記事のセマンティック構造が顕著に類似していることも示している。
論文 参考訳(メタデータ) (2024-06-16T14:51:12Z) - Adapting Fake News Detection to the Era of Large Language Models [48.5847914481222]
我々は,機械による(言い換えられた)リアルニュース,機械生成のフェイクニュース,人書きのフェイクニュース,人書きのリアルニュースの相互作用について検討する。
我々の実験では、人書き記事のみに特化して訓練された検知器が、機械が生成したフェイクニュースを検出できる興味深いパターンを明らかにしましたが、その逆ではありません。
論文 参考訳(メタデータ) (2023-11-02T08:39:45Z) - Multilingual Coarse Political Stance Classification of Media. The
Editorial Line of a ChatGPT and Bard Newspaper [1.450405446885067]
我々は、信頼できるニュースメディアのレーティングを使用して、粗いスタンスアノテーションを備えた多言語ニュースコーパスを作成します。
このデータに基づいて訓練された分類器は、英語、ドイツ語、スペイン語、カタルーニャ語で目に見えないほとんどの新聞の編集ラインを特定することができる。
従来の新聞と同様、ChatGPT編集ラインは時間とともに進化し、データ駆動システムであるので、生成した記事のスタンスが言語によって異なることが観察された。
論文 参考訳(メタデータ) (2023-10-25T01:01:28Z) - Towards Corpus-Scale Discovery of Selection Biases in News Coverage:
Comparing What Sources Say About Entities as a Start [65.28355014154549]
本稿では,大規模ニュースコーパスにおけるニュースコンテンツから直接メディア選択バイアスのパターンを発見するために,スケーラブルなNLPシステムを構築する上での課題について検討する。
我々は,世界519のニュースソースから180万件のニュース記事のコーパスであるNELA-2020のケーススタディを通じて,フレームワークの能力を示す。
論文 参考訳(メタデータ) (2023-04-06T23:36:45Z) - Unveiling the Hidden Agenda: Biases in News Reporting and Consumption [59.55900146668931]
イタリアのワクチン論争に関する6年間のデータセットを構築し、物語と選択バイアスを特定するためにベイジアン潜在空間モデルを採用する。
バイアスとエンゲージメントの間に非線形な関係が見られ、極端な位置へのエンゲージメントが高くなった。
Twitter上でのニュース消費の分析は、同様のイデオロギー的な立場のニュースメディアの間で、一般的なオーディエンスを明らかにしている。
論文 参考訳(メタデータ) (2023-01-14T18:58:42Z) - Multiverse: Multilingual Evidence for Fake News Detection [71.51905606492376]
Multiverseは、偽ニュースの検出に使用できる多言語エビデンスに基づく新機能である。
偽ニュース検出機能としての言語間証拠の使用仮説を確認した。
論文 参考訳(メタデータ) (2022-11-25T18:24:17Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - Newsalyze: Enabling News Consumers to Understand Media Bias [7.652448987187803]
フェイクニュース」の時代には、ニュース記事のスラントと信頼性を知ることが極めて重要である。
我々はNewsalyzeを紹介します。Newsalyzeは、言葉の選択とラベル付け(WCL)という、微妙で強力なメディアバイアスに焦点をあてたバイアス対応ニュースリーダーです。
WCLバイアスは、ニュースで報告された「フリーダム・ファイター」対「テロリスト」の評価を変えることができる。
論文 参考訳(メタデータ) (2021-05-20T11:20:37Z) - Analyzing Political Bias and Unfairness in News Articles at Different
Levels of Granularity [35.19976910093135]
本論文では, 偏見の自動検出だけでなく, 政治的偏見や不公平さが言語的にどのように表現されるかについても検討する。
我々は,adfontesmedia.comから派生したラベル付き6964ニュース記事の新しいコーパスを活用し,バイアス評価のためのニューラルモデルを開発した。
論文 参考訳(メタデータ) (2020-10-20T22:25:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。