論文の概要: Evidence Without Injustice: A New Counterfactual Test for Fair Algorithms
- arxiv url: http://arxiv.org/abs/2510.12822v1
- Date: Fri, 10 Oct 2025 09:33:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.331371
- Title: Evidence Without Injustice: A New Counterfactual Test for Fair Algorithms
- Title(参考訳): 不正な証拠: 公正なアルゴリズムのための新しい対実テスト
- Authors: Michele Loi, Marcello Di Bello, Nicolò Cangiotti,
- Abstract要約: アルゴリズム出力自体の明らかな値が構造的不正に依存することを示す。
我々は、その証拠が現実の世界における証拠であるかどうか、そして、その証拠が関連する不正を伴わずに、近隣の世界における証拠であるかどうかを問う。
証拠が試験に失敗した場合、その証拠が試験に合格する証拠よりも、的確に使用することが道徳的に問題となる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The growing philosophical literature on algorithmic fairness has examined statistical criteria such as equalized odds and calibration, causal and counterfactual approaches, and the role of structural and compounding injustices. Yet an important dimension has been overlooked: whether the evidential value of an algorithmic output itself depends on structural injustice. Our paradigmatic pair of examples contrasts a predictive policing algorithm, which relies on historical crime data, with a camera-based system that records ongoing offenses, both designed to guide police deployment. In evaluating the moral acceptability of acting on a piece of evidence, we must ask not only whether the evidence is probative in the actual world, but also whether it would remain probative in nearby worlds without the relevant injustices. The predictive policing algorithm fails this test, but the camera-based system passes it. When evidence fails the test, it is morally problematic to use it punitively, more so than evidence that passes the test.
- Abstract(参考訳): アルゴリズム的公正に関する哲学文献の増大は、等化確率や校正、因果的および反事実的アプローチ、構造的および複合的不正の役割といった統計的基準を検証してきた。
しかし、アルゴリズム出力の明らかな値自体が構造的不正に依存するかどうかという重要な次元は見過ごされている。
当社のパラダイム的一対の例は、過去の犯罪データに依存する予測的警察アルゴリズムと、警察の展開を導くために設計された、進行中の犯罪を記録するカメラベースのシステムとを対比している。
証拠に作用する道徳的受容性を評価する際には、その証拠が実世界において有益かどうかだけでなく、それに関連する不正を伴わずに近隣世界において有益であるかどうかを問う必要がある。
予測的な警察アルゴリズムはこのテストに失敗するが、カメラベースのシステムはそれをパスする。
証拠が試験に失敗した場合、その証拠が試験に合格する証拠よりも、的確に使用することが道徳的に問題となる。
関連論文リスト
- Partial Identification Approach to Counterfactual Fairness Assessment [50.88100567472179]
未知の対実的公正度尺度を高い信頼性で有界化するためのベイズ的アプローチを導入する。
以上の結果から、人種をアフリカ系アメリカ人に転換する際のCompASスコアに対する肯定的な(不快な)効果と、若年から高齢に移行する際の否定的な(直接的な因果関係)効果が明らかとなった。
論文 参考訳(メタデータ) (2025-09-30T18:35:08Z) - Implementing Fairness in AI Classification: The Role of Explainability [0.0]
AI分類における公平性の実装には、公正度測定を単に運用すること以上の作業が必要だ、と我々は主張する。
トレーニングプロセスを透過化し、フェアネス基準が実際に生み出す成果を判断し、トレードオフを評価する。
これらの説明的なステップがAIモデルを信頼できるものにする方法に関する結論を導きます。
論文 参考訳(メタデータ) (2024-07-20T06:06:24Z) - Epistemological Bias As a Means for the Automated Detection of Injustices in Text [0.0]
不公平は、誰かが不公平な治療を受けたり、権利が侵害されたり、しばしばステレオタイプのような暗黙の偏見や偏見が原因で起こる。
本稿では,微細調整されたBERTに基づくバイアス検出モデル,2つのステレオタイプ検出モデル,およびテキストにおける不正の自動検出を支援するための辞書ベースのアプローチを併用した新しいフレームワークについて述べる。
我々は,データ量が多い場合でも,不正を検出するためにフレームワークをどのように適用できるかを実証的質的研究を行ない,議論する。
論文 参考訳(メタデータ) (2024-07-08T16:38:31Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Algorithmic Fairness and Structural Injustice: Insights from Feminist
Political Philosophy [2.28438857884398]
倫理的公正」は、データ駆動アルゴリズムにおける有害なバイアスを軽減することを目的としている。
フェミニスト政治哲学者の社会正義に対する見解は、ほとんど無視されてきた。
本稿では、フェミニストの政治哲学をアルゴリズム的公正性に導く。
論文 参考訳(メタデータ) (2022-06-02T09:18:03Z) - GERE: Generative Evidence Retrieval for Fact Verification [57.78768817972026]
本稿では,ジェネレーション方式で証拠を検索する最初のシステムであるGEREを提案する。
FEVERデータセットの実験結果は、GEREが最先端のベースラインよりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2022-04-12T03:49:35Z) - Uncertainty in Criminal Justice Algorithms: simulation studies of the
Pennsylvania Additive Classification Tool [0.0]
我々は、投獄された個人に留置レベルを割り当てるペンシルバニア付加分類ツール(PACT)について検討した。
我々は、刑事司法アルゴリズムがしばしば分析される方法で、PACTを分析します。
我々は,そのようなアルゴリズムを研究するための新しい手法を提案し,実施する。
論文 参考訳(メタデータ) (2021-12-01T06:27:24Z) - AmbiFC: Fact-Checking Ambiguous Claims with Evidence [57.7091560922174]
実世界の情報ニーズから10kクレームを抽出したファクトチェックデータセットであるAmbiFCを提示する。
アンビFCの証拠に対する主張を比較する際に,曖昧さから生じる不一致を分析した。
我々は,このあいまいさをソフトラベルで予測するモデルを開発した。
論文 参考訳(メタデータ) (2021-04-01T17:40:08Z) - Equality before the Law: Legal Judgment Consistency Analysis for
Fairness [55.91612739713396]
本論文では,LInCo(Legal Inconsistency Coefficient)の判定不整合性評価指標を提案する。
法的な判断予測(LJP)モデルを用いて異なる集団の裁判官をシミュレートし、異なる集団で訓練されたLJPモデルによる判断結果の不一致を判断する。
私達はLInCoを実際の場合の不一致を探検するために使用し、次の観察に来ます:(1)地域およびジェンダーの不一致は法制度でありますが、ジェンダーの不一致は地方不一致より大いにより少しです。
論文 参考訳(メタデータ) (2021-03-25T14:28:00Z) - Justicia: A Stochastic SAT Approach to Formally Verify Fairness [38.482411134083236]
そこで本研究では,教師付き学習アルゴリズムの公正度を正式に検証する,満足度の高いフレームワークであるJusticiaを提案する。
Justiciaはスケーラブルで正確で、既存の分散ベースの検証器とは異なり、非ブールおよび複合感度属性で動作する。
論文 参考訳(メタデータ) (2020-09-14T15:23:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。