論文の概要: Fair Inputs and Fair Outputs: The Incompatibility of Fairness in Privacy
and Accuracy
- arxiv url: http://arxiv.org/abs/2005.09209v3
- Date: Sun, 24 May 2020 22:08:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 13:40:19.164020
- Title: Fair Inputs and Fair Outputs: The Incompatibility of Fairness in Privacy
and Accuracy
- Title(参考訳): 公平なインプットと公平なアウトプット: プライバシーと正確性における公平性の非互換性
- Authors: Bashir Rastegarpanah (1), Mark Crovella (1), Krishna P. Gummadi (2)
((1) Boston University, (2) MPI-SWS)
- Abstract要約: プライバシと必要な知識は意思決定システムの望ましい特性である,と我々は主張する。
最適分類器に対して、これらの3つの性質は一般に非互換であることを示す。
3つの特性間のトレードオフが与えられたデータセットに存在するかどうかを検証するアルゴリズムを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness concerns about algorithmic decision-making systems have been mainly
focused on the outputs (e.g., the accuracy of a classifier across individuals
or groups). However, one may additionally be concerned with fairness in the
inputs. In this paper, we propose and formulate two properties regarding the
inputs of (features used by) a classifier. In particular, we claim that fair
privacy (whether individuals are all asked to reveal the same information) and
need-to-know (whether users are only asked for the minimal information required
for the task at hand) are desirable properties of a decision system. We explore
the interaction between these properties and fairness in the outputs (fair
prediction accuracy). We show that for an optimal classifier these three
properties are in general incompatible, and we explain what common properties
of data make them incompatible. Finally we provide an algorithm to verify if
the trade-off between the three properties exists in a given dataset, and use
the algorithm to show that this trade-off is common in real data.
- Abstract(参考訳): アルゴリズムによる意思決定システムに対する公正な懸念は、主に出力(例えば、個人またはグループ間での分類器の精度)に焦点を当てている。
しかし、さらに入力の公平性に関係があるかもしれない。
本稿では,分類器の入力に関する2つの特性を提案し,定式化する。
特に、公正なプライバシ(すべての個人が同じ情報を開示するように要求される)と、必要な知識(手元にあるタスクに必要な最小限の情報しか要求されない)は、意思決定システムの望ましい特性であると主張する。
これらの特性と出力の公平性(フェア予測精度)の相互作用について検討する。
最適分類器ではこれら3つの特性は一般に非互換であることが示され、データの共通特性がそれらと非互換なものについて説明する。
最後に、与えられたデータセットに3つのプロパティ間のトレードオフが存在するかどうかを検証し、このトレードオフが実データで共通であることを示すアルゴリズムを提案する。
関連論文リスト
- Balancing Fairness and Accuracy in Data-Restricted Binary Classification [14.439413517433891]
本稿では,4つの実践シナリオ下での精度と公平性のトレードオフをモデル化する枠組みを提案する。
3つのデータセットの実験では、トレードオフを定量化するためのツールとして提案されたフレームワークの有用性が示されている。
論文 参考訳(メタデータ) (2024-03-12T15:01:27Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Fair Causal Feature Selection [17.29310476978056]
フェアCFSと呼ばれるフェア因果的特徴選択アルゴリズムを提案する。
FairCFSは局所化された因果グラフを構築し、クラスと敏感な変数のマルコフ毛布を識別する。
7つのパブリックな実世界のデータセットの実験により、FairCFSは8つの最先端機能選択アルゴリズムと比較して精度が同等であることが検証された。
論文 参考訳(メタデータ) (2023-06-17T12:40:43Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Algorithmic Fairness Datasets: the Story so Far [68.45921483094705]
データ駆動アルゴリズムは、人々の幸福に直接影響し、批判的な決定をサポートするために、さまざまな領域で研究されている。
研究者のコミュニティは、既存のアルゴリズムの株式を調査し、新しいアルゴリズムを提案し、歴史的に不利な人口に対する自動意思決定のリスクと機会の理解を深めてきた。
公正な機械学習の進歩はデータに基づいており、適切に文書化された場合にのみ適切に使用できる。
残念なことに、アルゴリズムフェアネスコミュニティは、特定のリソース(オパシティ)に関する情報の不足と利用可能な情報の分散(スパーシティ)によって引き起こされる、集合的なデータドキュメント負債に悩まされている。
論文 参考訳(メタデータ) (2022-02-03T17:25:46Z) - Information Theoretic Measures for Fairness-aware Feature Selection [27.06618125828978]
我々は,特徴の精度と識別的影響に関する情報理論に基づく,公平性を考慮した特徴選択のためのフレームワークを開発する。
具体的には、この機能が正確性や非差別的判断にどのように影響するかを定量化する、各機能に対する公平性ユーティリティスコアを設計することを目的としています。
論文 参考訳(メタデータ) (2021-06-01T20:11:54Z) - Transparency Tools for Fairness in AI (Luskin) [12.158766675246337]
我々は,AIアルゴリズムにおける公平さと偏見を評価し,補正するための新しいツールを提案する。
3つのツールは以下のとおりである。 - 保護された特徴とフィルタの選択に関して、"制御された公平性"と呼ばれる新しい公平性の定義。
それらは様々なバイアスの次元を理解するのに有用であり、実際、アルゴリズムは新しいデータでテストした場合、与えられた観測されたバイアスを減らすのに効果的である。
論文 参考訳(メタデータ) (2020-07-09T00:21:54Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。