論文の概要: An Approach to Ensure Fairness in News Articles
- arxiv url: http://arxiv.org/abs/2207.03938v1
- Date: Fri, 8 Jul 2022 14:43:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-11 16:07:35.134852
- Title: An Approach to Ensure Fairness in News Articles
- Title(参考訳): ニュース記事の公平性確保へのアプローチ
- Authors: Shaina Raza, Deepak John Reji, Dora D. Liu, Syed Raza Bashir, Usman
Naseem
- Abstract要約: 本稿では,ニュース記事の公平性を保証するPythonパッケージであるDbiasを紹介する。
Dbiasは、トレーニングされた機械学習パイプラインで、テキストを取って、テキストがバイアスを受けているかどうかを検出することができる。
実験では、このパイプラインがバイアスを軽減し、共通のニューラルネットワークアーキテクチャより優れていることを示す。
- 参考スコア(独自算出の注目度): 1.2349542674006961
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recommender systems, information retrieval, and other information access
systems present unique challenges for examining and applying concepts of
fairness and bias mitigation in unstructured text. This paper introduces Dbias,
which is a Python package to ensure fairness in news articles. Dbias is a
trained Machine Learning (ML) pipeline that can take a text (e.g., a paragraph
or news story) and detects if the text is biased or not. Then, it detects the
biased words in the text, masks them, and recommends a set of sentences with
new words that are bias-free or at least less biased. We incorporate the
elements of data science best practices to ensure that this pipeline is
reproducible and usable. We show in experiments that this pipeline can be
effective for mitigating biases and outperforms the common neural network
architectures in ensuring fairness in the news articles.
- Abstract(参考訳): レコメンダシステム、情報検索、その他の情報アクセスシステムは、非構造化テキストにおける公平性とバイアス緩和の概念を検証および適用するためのユニークな課題を示している。
本稿では,ニュース記事の公平性を保証するPythonパッケージであるDbiasを紹介する。
Dbiasは、トレーニングされた機械学習(ML)パイプラインで、テキスト(例えば、段落やニュースストーリー)を取り込み、テキストがバイアスを受けているかどうかを検出する。
そして、テキスト中のバイアスされた単語を検出し、それらをマスクし、バイアスのない、あるいは少なくともバイアスの少ない新しい単語のセットを推奨する。
データサイエンスのベストプラクティスの要素を取り入れて、このパイプラインが再現可能で使用可能なことを保証する。
実験では、このパイプラインがバイアスを軽減し、共通のニューラルネットワークアーキテクチャを上回り、ニュース記事の公平性の確保に有効であることを示す。
関連論文リスト
- Take Care of Your Prompt Bias! Investigating and Mitigating Prompt Bias in Factual Knowledge Extraction [56.17020601803071]
近年の研究では、事前学習言語モデル(PLM)が、事実知識抽出において「急激なバイアス」に悩まされていることが示されている。
本稿では,突発バイアスを徹底的に調査し緩和することにより,既存のベンチマークの信頼性を向上させることを目的とする。
論文 参考訳(メタデータ) (2024-03-15T02:04:35Z) - Target-Aware Contextual Political Bias Detection in News [22.396285428304083]
ニュースにおける文レベルの政治的偏見検出は、文脈を考慮した偏見の理解を必要とする課題である。
メディアバイアス検出におけるこれまでの研究は、この事実を利用するための拡張技術を提案した。
本稿では、バイアスに敏感なターゲット認識アプローチを用いて、より注意深くコンテキストを探索する手法を提案する。
論文 参考訳(メタデータ) (2023-10-02T12:25:05Z) - Prompt-and-Align: Prompt-Based Social Alignment for Few-Shot Fake News
Detection [50.07850264495737]
プロンプト・アンド・アライン(Prompt-and-Align、P&A)は、数発のフェイクニュース検出のための新しいプロンプトベースのパラダイムである。
我々はP&Aが、数発のフェイクニュース検出性能をかなりのマージンで新たな最先端に設定していることを示す。
論文 参考訳(メタデータ) (2023-09-28T13:19:43Z) - Unsupervised Bias Detection in College Student Newspapers [0.0]
本稿では,複雑なアーカイブサイトをスクレイピングするフレームワークを導入し,23,154項目からなる14の学生論文のデータセットを生成する。
このアプローチの利点は、リコンストラクションバイアスよりも比較が低く、キーワードの感情を生成するよりもラベル付きデータが少ないことである。
結果は、政治的に課金された単語と制御された単語に基づいて計算され、どのように結論が導き出されるかを示す。
論文 参考訳(メタデータ) (2023-09-11T06:51:09Z) - Addressing Biases in the Texts using an End-to-End Pipeline Approach [0.0]
本稿では,テキストを入力とし,バイアスや有害な内容を含むか否かを判定する,公正なMLパイプラインを提案する。
両用した単語を置換することで、新しい単語の集合が提案されるが、その考え方は、それらのバイアスの効果を代替語に置き換えることによって軽減することである。
その結果,提案したパイプラインはソーシャルメディアデータのバイアスを検出・識別・緩和できることがわかった。
論文 参考訳(メタデータ) (2023-03-13T11:41:28Z) - NeuS: Neutral Multi-News Summarization for Mitigating Framing Bias [54.89737992911079]
様々な政治スペクトルの複数のニュース見出しから中立的な要約を生成する新しい課題を提案する。
最も興味深い観察の1つは、生成モデルは、事実的に不正確なコンテンツや検証不可能なコンテンツだけでなく、政治的に偏ったコンテンツにも幻覚を与えることができることである。
論文 参考訳(メタデータ) (2022-04-11T07:06:01Z) - FairFil: Contrastive Neural Debiasing Method for Pretrained Text
Encoders [68.8687509471322]
本稿では,プリトレーニングされたエンコーダ出力をフェアフィルタネットワークを介してデバイアス表現に変換する,プリトレーニング文エンコーダの最初のニューラルデバイアス手法を提案する。
実世界のデータセットでは、fairfilは学習済みテキストエンコーダのバイアスを効果的に低減し、下流タスクで望ましいパフォーマンスを継続的に示します。
論文 参考訳(メタデータ) (2021-03-11T02:01:14Z) - Context in Informational Bias Detection [4.386026071380442]
英語ニュース記事における情報バイアスに関する4種類の文脈について検討する。
イベントコンテキストの統合は、非常に強力なベースライン上での分類性能を改善する。
最良性能の文脈包含モデルが長文のベースラインより優れていることが判明した。
論文 参考訳(メタデータ) (2020-12-03T15:50:20Z) - Viable Threat on News Reading: Generating Biased News Using Natural
Language Models [49.90665530780664]
公開されている言語モデルは、入力されたオリジナルニュースに基づいてバイアスのあるニュースコンテンツを確実に生成できることを示す。
また、制御可能なテキスト生成を用いて、多数の高品質な偏りのあるニュース記事を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-05T16:55:39Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z) - SirenLess: reveal the intention behind news [31.757138364005087]
本稿では,言語的特徴による誤ニュース検出のための視覚解析システムであるSirenLessを紹介する。
このシステムは、ニュースメタデータと言語機能を統合し、ニュース記事の意味構造を明らかにする新しいインタラクティブツールである、記事エクスプローラーを特徴とする。
我々は、SirenLessを用いて、異なるソースから18のニュース記事を分析し、誤ったニュース検出のためのいくつかの有用なパターンを要約する。
論文 参考訳(メタデータ) (2020-01-08T20:36:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。