論文の概要: Interpretable Assessment of Fairness During Model Evaluation
- arxiv url: http://arxiv.org/abs/2010.13782v1
- Date: Mon, 26 Oct 2020 02:31:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 20:17:05.863048
- Title: Interpretable Assessment of Fairness During Model Evaluation
- Title(参考訳): モデル評価におけるフェアネスの解釈的評価
- Authors: Amir Sepehri and Cyrus DiCiccio
- Abstract要約: 本稿では,階層的クラスタリングアルゴリズムを導入し,各サブ集団におけるユーザ間の不均一性を検出する。
本稿では,LinkedInの実際のデータに対して,アルゴリズムの性能を示す。
- 参考スコア(独自算出の注目度): 1.2183405753834562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For companies developing products or algorithms, it is important to
understand the potential effects not only globally, but also on sub-populations
of users. In particular, it is important to detect if there are certain groups
of users that are impacted differently compared to others with regard to
business metrics or for whom a model treats unequally along fairness concerns.
In this paper, we introduce a novel hierarchical clustering algorithm to detect
heterogeneity among users in given sets of sub-populations with respect to any
specified notion of group similarity. We prove statistical guarantees about the
output and provide interpretable results. We demonstrate the performance of the
algorithm on real data from LinkedIn.
- Abstract(参考訳): 製品やアルゴリズムを開発する企業にとって、世界のみならず、ユーザーのサブ人口に対する潜在的な影響を理解することが重要である。
特に、ビジネスメトリクスに関して他のユーザと異なる影響を与える特定のユーザグループが存在するか、あるいはモデルが公平な懸念に従って不平等に扱うかを検出することが重要です。
本稿では,グループ類似性の特定の概念に関して,与えられたサブ集団集合におけるユーザ間の不均一性を検出する階層的クラスタリングアルゴリズムを提案する。
出力に関する統計的保証を証明し、解釈可能な結果を提供する。
本稿では,LinkedInの実際のデータに対するアルゴリズムの性能を示す。
関連論文リスト
- A structured regression approach for evaluating model performance across intersectional subgroups [53.91682617836498]
分散評価(disaggregated evaluation)は、AIフェアネスアセスメントにおける中心的なタスクであり、AIシステムのさまざまなサブグループ間でのパフォーマンスを測定することを目的としている。
非常に小さなサブグループであっても,信頼性の高いシステム性能推定値が得られることを示す。
論文 参考訳(メタデータ) (2024-01-26T14:21:45Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Estimating Structural Disparities for Face Models [54.062512989859265]
機械学習では、異なるサブ人口間でのモデルの性能や結果の差を測定することで、しばしば異質度の測定が定義される。
本研究では、人間の顔に訓練されたコンピュータビジョンモデルや、顔属性予測や影響推定などのタスクについて、そのような分析を行う。
論文 参考訳(メタデータ) (2022-04-13T05:30:53Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Deep Clustering based Fair Outlier Detection [19.601280507914325]
本稿では,統合深層クラスタリングと外乱検出を強化するために,インスタンスレベルの重み付き表現学習戦略を提案する。
我々のDCFOD法は, 異常検出において, 異常検出の妥当性と2種類のフェアネス概念の両面において, 常に優れた性能を達成している。
論文 参考訳(メタデータ) (2021-06-09T15:12:26Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Protecting Individual Interests across Clusters: Spectral Clustering
with Guarantees [20.350342151402963]
我々は、各クラスタが各クラスタに接続された適切なメンバー数を含む必要があるグラフ $mathcalg$ をクラスタリングするための個別フェアネス基準を提案する。
与えられた表現グラフの下で公正なクラスタを見つけるためのスペクトルクラスタリングアルゴリズムを考案する。
論文 参考訳(メタデータ) (2021-05-08T15:03:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。