論文の概要: Does AI-Assisted Fact-Checking Disproportionately Benefit Majority
Groups Online?
- arxiv url: http://arxiv.org/abs/2302.03782v2
- Date: Thu, 9 Feb 2023 17:18:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 14:05:33.941134
- Title: Does AI-Assisted Fact-Checking Disproportionately Benefit Majority
Groups Online?
- Title(参考訳): AI支援のFact-Checkingは、オンラインのマジョリティグループに不相応な利益をもたらすか?
- Authors: Terrence Neumann and Nicholas Wolczynski
- Abstract要約: 我々は,AI開発パイプラインの複数の段階にわたる多彩な表現が,AI支援事実チェックのメリットの分布に与える影響について検討する。
Topic-Aware, Community-Impacted Twitterシミュレータを用いて, ネットワーク内の情報伝達をシミュレートする。
本研究は,チェック・レジデンスモデルトレーニングデータのサンプリングとラベル付けのための代表的手法と平等主義的手法の両方が,多数派コミュニティにネットワーク全体の利益をもたらすことを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, algorithms have been incorporated into fact-checking
pipelines. They are used not only to flag previously fact-checked
misinformation, but also to provide suggestions about which trending claims
should be prioritized for fact-checking - a paradigm called `check-worthiness.'
While several studies have examined the accuracy of these algorithms, none have
investigated how the benefits from these algorithms (via reduction in exposure
to misinformation) are distributed amongst various online communities. In this
paper, we investigate how diverse representation across multiple stages of the
AI development pipeline affects the distribution of benefits from AI-assisted
fact-checking for different online communities. We simulate information
propagation through the network using our novel Topic-Aware, Community-Impacted
Twitter (TACIT) simulator on a large Twitter followers network, tuned to
produce realistic cascades of true and false information across multiple
topics. Finally, using simulated data as a test bed, we implement numerous
algorithmic fact-checking interventions that explicitly account for notions of
diversity. We find that both representative and egalitarian methods for
sampling and labeling check-worthiness model training data can lead to
network-wide benefit concentrated in majority communities, while incorporating
diversity into how fact-checkers use algorithmic recommendations can actively
reduce inequalities in benefits between majority and minority communities.
These findings contribute to an important conversation around the responsible
implementation of AI-assisted fact-checking by social media platforms and
fact-checking organizations.
- Abstract(参考訳): 近年,ファクトチェックパイプラインにアルゴリズムが組み込まれている。
それらは、以前にファクトチェックされた誤情報にフラグを付けるだけでなく、ファクトチェックのためにどのトレンドクレームを優先すべきかの提案にも使われる。
「これらのアルゴリズムの精度を検証した研究はいくつかあるが、これらのアルゴリズムの利点(誤情報への曝露による)が、様々なオンラインコミュニティにどのように分散されているかは研究されていない。
本稿では,AI開発パイプラインの複数段階にわたる多彩な表現が,異なるオンラインコミュニティを対象としたAI支援のファクトチェックによるメリットの分布に与える影響について検討する。
提案するトピック認識型tacit(community-impacted twitter)シミュレータを大規模twitterフォロワネットワーク上で使用し,複数のトピックにわたる真偽情報の現実的なカスケードを生成するように調整した。
最後に、シミュレーションデータをテストベッドとして使用し、多様性の概念を明確に説明するアルゴリズムによる事実チェックの介入を多数実施する。
本研究は, 多数派コミュニティにネットワーク全体の利益を集中させるとともに, 多数派コミュニティと少数派コミュニティ間の利益の不平等を積極的に減らすために, ファクトチェッカーがアルゴリズムレコメンデーションを利用する方法に多様性を取り入れていることを示す。
これらの発見は、ソーシャルメディアプラットフォームやファクトチェック組織によるAI支援ファクトチェックの責任ある実施に関する重要な議論に寄与する。
関連論文リスト
- Detecting and Mitigating Bias in Algorithms Used to Disseminate Information in Social Networks [0.03883607294385062]
影響アルゴリズムは、影響者の集合を特定するために使用される。
これらの手法を用いたシード情報によって情報ギャップが生じることを示す。
インフルエンスと情報エクイティを最大化する多目的アルゴリズムを考案する。
論文 参考訳(メタデータ) (2024-05-21T13:17:57Z) - Transferable and Efficient Non-Factual Content Detection via Probe Training with Offline Consistency Checking [48.68044413117397]
PINOSEは、オフラインの自己整合性検査結果に基づいて探索モデルをトレーニングし、人間の注釈付きデータの必要性を回避する。
応答復号に先立って内部状態の様々な側面を調べ、事実的不正確な検出に寄与する。
論文 参考訳(メタデータ) (2024-04-10T05:00:35Z) - Online Auditing of Information Flow [4.557963624437785]
本稿では,ニュース項目を偽物や真偽と分類することを目的として,情報の流れ・伝播のオンライン監査の問題点を考察する。
グラフによってモデル化されたネットワーク上での確率的マルコフ情報拡散モデルを提案する。
上記のリスクを最小化する最適検出アルゴリズムを発見し,いくつかの統計的保証を証明した。
論文 参考訳(メタデータ) (2023-10-23T06:03:55Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - A Survey of Learning on Small Data: Generalization, Optimization, and
Challenge [101.27154181792567]
ビッグデータの一般化能力を近似した小さなデータについて学ぶことは、AIの究極の目的の1つである。
この調査はPACフレームワークの下でのアクティブサンプリング理論に従い、小さなデータにおける学習の一般化誤差とラベルの複雑さを分析した。
効率的な小さなデータ表現の恩恵を受けるかもしれない複数のデータアプリケーションについて調査する。
論文 参考訳(メタデータ) (2022-07-29T02:34:19Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - FairCVtest Demo: Understanding Bias in Multimodal Learning with a
Testbed in Fair Automatic Recruitment [79.23531577235887]
このデモは、非構造化データから機密情報を抽出する採用ツールの背後にある人工知能(AI)の能力を示しています。
また、このデモには差別認識学習のための新しいアルゴリズムが含まれており、マルチモーダルAIフレームワークの機密情報を排除している。
論文 参考訳(メタデータ) (2020-09-12T17:45:09Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。