論文の概要: Justice in Misinformation Detection Systems: An Analysis of Algorithms,
Stakeholders, and Potential Harms
- arxiv url: http://arxiv.org/abs/2204.13568v2
- Date: Fri, 29 Apr 2022 15:02:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-02 11:50:29.267717
- Title: Justice in Misinformation Detection Systems: An Analysis of Algorithms,
Stakeholders, and Potential Harms
- Title(参考訳): 誤情報検出システムにおける正義:アルゴリズム,利害関係者,潜在的損害の分析
- Authors: Terrence Neumann and Maria De-Arteaga and Sina Fazelpour
- Abstract要約: 誤情報検出パイプラインにおける3つのアルゴリズム段階の利害関係者に対して、不正がいかに有効であるかを示す。
この枠組みは、研究者、政策立案者、そして実践者がアルゴリズムの誤情報検出に関連する潜在的な害やリスクを判断するのに役立つだろう。
- 参考スコア(独自算出の注目度): 2.5372245630249632
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Faced with the scale and surge of misinformation on social media, many
platforms and fact-checking organizations have turned to algorithms for
automating key parts of misinformation detection pipelines. While offering a
promising solution to the challenge of scale, the ethical and societal risks
associated with algorithmic misinformation detection are not well-understood.
In this paper, we employ and extend upon the notion of informational justice to
develop a framework for explicating issues of justice relating to
representation, participation, distribution of benefits and burdens, and
credibility in the misinformation detection pipeline. Drawing on the framework:
(1) we show how injustices materialize for stakeholders across three
algorithmic stages in the pipeline; (2) we suggest empirical measures for
assessing these injustices; and (3) we identify potential sources of these
harms. This framework should help researchers, policymakers, and practitioners
reason about potential harms or risks associated with these algorithms and
provide conceptual guidance for the design of algorithmic fairness audits in
this domain.
- Abstract(参考訳): ソーシャルメディア上の誤報の規模と急増に直面した多くのプラットフォームやファクトチェック組織は、誤報検出パイプラインの重要な部分を自動化するアルゴリズムに目を向けている。
スケールの課題に対する有望な解決策を提供する一方で、アルゴリズムの誤情報検出に関連する倫理的・社会的リスクは十分に理解されていない。
本稿では,情報正義の概念を取り入れ,表現,参加,利益と負担の分配,誤情報検出パイプラインの信頼性に関する正義の問題を解明するための枠組みを構築した。
枠組みは,(1)パイプライン内の3つのアルゴリズム段階における利害関係者の不正がいかに成立するか,(2)これらの不正を評価するための実証的尺度を提案し,(3)これらの害の潜在的な原因を特定する。
このフレームワークは、研究者、政策立案者、実践者がこれらのアルゴリズムに関連する潜在的な害やリスクを判断し、このドメインにおけるアルゴリズム的公正監査の設計のための概念的ガイダンスを提供する。
関連論文リスト
- An Information-Flow Perspective on Algorithmic Fairness [0.951828574518325]
本研究は,アルゴリズムフェアネスとセキュア情報フローの概念との関係を考察することによって得られた知見を提示する。
フェアネススプレッドと呼ばれる新しい量的公正の概念を導出し、定量的情報フローを用いて容易に分析できる。
論文 参考訳(メタデータ) (2023-12-15T14:46:36Z) - The right to audit and power asymmetries in algorithm auditing [68.8204255655161]
IC2S2 2021でSandvig氏が言及した課題と漸近について詳しく説明する。
また、Sandvigがカバーしていない非対称性の議論にも貢献する。
本稿では,これらの非対称性がアルゴリズム監査研究に与える影響について論じる。
論文 参考訳(メタデータ) (2023-02-16T13:57:41Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Algorithmic Fairness in Business Analytics: Directions for Research and
Practice [24.309795052068388]
本稿では,アルゴリズムフェアネスの先見的,BAに着目したレビューを行う。
まず、バイアスの源泉と測定方法、およびバイアス緩和アルゴリズムに関する最先端の研究について概説する。
次に、ユーティリティ・フェアネスの関係について詳細な議論を行い、これらの2つの構成要素間のトレードオフの頻繁な仮定は、しばしば間違いまたは近視的であることを強調した。
論文 参考訳(メタデータ) (2022-07-22T10:21:38Z) - Outsider Oversight: Designing a Third Party Audit Ecosystem for AI
Governance [3.8997087223115634]
我々は、現在のAIの状況におけるサードパーティの監視の課題について論じる。
このような監査の制度設計はモノリシックとは程遠い。
我々は,監査のみへの転換が,実際のアルゴリズム的説明責任を達成する可能性は低いと結論づける。
論文 参考訳(メタデータ) (2022-06-09T19:18:47Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - A relationship and not a thing: A relational approach to algorithmic
accountability and assessment documentation [3.4438724671481755]
当社は、開発者はシステムがどのように動作するかに関する情報をほとんど独占していると論じています。
我々は、ロバストな説明責任体制は、大衆が共有された経験と関心を結び付ける機会を確立する必要があると論じている。
論文 参考訳(メタデータ) (2022-03-02T23:22:03Z) - Algorithmic Fairness Datasets: the Story so Far [68.45921483094705]
データ駆動アルゴリズムは、人々の幸福に直接影響し、批判的な決定をサポートするために、さまざまな領域で研究されている。
研究者のコミュニティは、既存のアルゴリズムの株式を調査し、新しいアルゴリズムを提案し、歴史的に不利な人口に対する自動意思決定のリスクと機会の理解を深めてきた。
公正な機械学習の進歩はデータに基づいており、適切に文書化された場合にのみ適切に使用できる。
残念なことに、アルゴリズムフェアネスコミュニティは、特定のリソース(オパシティ)に関する情報の不足と利用可能な情報の分散(スパーシティ)によって引き起こされる、集合的なデータドキュメント負債に悩まされている。
論文 参考訳(メタデータ) (2022-02-03T17:25:46Z) - Mitigating Bias in Algorithmic Systems -- A Fish-Eye View [8.19357693559909]
この調査は4つの研究分野にわたるアプローチを考察した「魚眼の視点」を提供する。
文献では、バイアス検出、公平性管理、説明可能性管理という、包括的な治療に向けた3つのステップについて説明している。
論文 参考訳(メタデータ) (2021-03-31T10:14:28Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。