論文の概要: Through the Fairness Lens: Experimental Analysis and Evaluation of
Entity Matching
- arxiv url: http://arxiv.org/abs/2307.02726v1
- Date: Thu, 6 Jul 2023 02:21:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 15:34:08.010076
- Title: Through the Fairness Lens: Experimental Analysis and Evaluation of
Entity Matching
- Title(参考訳): フェアネスレンズを通して:エンティティマッチングの実験解析と評価
- Authors: Nima Shahbazi, Nikola Danevski, Fatemeh Nargesian, Abolfazl Asudeh,
Divesh Srivastava
- Abstract要約: アルゴリズムの公平さは、機械バイアスとその社会的影響に対処するためのタイムリーなトピックとなっている。
これら2つのトピックに関する広範な研究にもかかわらず、エンティティマッチングの公平性にはほとんど注意が払われていない。
フェアネスのレンズを通してEMを監査するためのソーシャルデータセットを2つ生成する。
- 参考スコア(独自算出の注目度): 17.857838691801884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Entity matching (EM) is a challenging problem studied by different
communities for over half a century. Algorithmic fairness has also become a
timely topic to address machine bias and its societal impacts. Despite
extensive research on these two topics, little attention has been paid to the
fairness of entity matching.
Towards addressing this gap, we perform an extensive experimental evaluation
of a variety of EM techniques in this paper. We generated two social datasets
from publicly available datasets for the purpose of auditing EM through the
lens of fairness. Our findings underscore potential unfairness under two common
conditions in real-world societies: (i) when some demographic groups are
overrepresented, and (ii) when names are more similar in some groups compared
to others. Among our many findings, it is noteworthy to mention that while
various fairness definitions are valuable for different settings, due to EM's
class imbalance nature, measures such as positive predictive value parity and
true positive rate parity are, in general, more capable of revealing EM
unfairness.
- Abstract(参考訳): エンティティマッチング(em)は、さまざまなコミュニティが半世紀以上にわたって研究してきた困難な問題である。
アルゴリズムの公平さは、マシンバイアスとその社会的影響に対処するためのタイムリーなトピックにもなっている。
これら2つのトピックに関する広範な研究にもかかわらず、エンティティマッチングの公平性にはほとんど注意が払われていない。
このギャップに対処するため,本論文では様々なem手法を広範囲に実験的に評価する。
我々は、公正なレンズを通してEMを監査するために、公開データセットから2つのソーシャルデータセットを生成した。
本研究は,実社会における2つの共通条件下での潜在的不公平性を浮き彫りにする。
(i)一部の人口集団が過剰に代表される場合
(ii)他のグループに比べて名前が似ている場合。
多くの発見のうち、様々な公平性の定義は、emのクラス不均衡性のため、異なる設定で価値があるが、ポジティブな予測値パリティや真の正のレートパリティといった尺度は、一般に、emの不公平性を明らかにすることができる。
関連論文リスト
- Threshold-Independent Fair Matching through Score Calibration [1.5530839016602822]
我々は、スコアベースのバイナリ分類におけるバイアスを評価するために、最近のメトリクスを使用して、エンティティマッチング(EM)に新しいアプローチを導入する。
このアプローチは、しきい値の設定に依存することなく、等化オッズ、等化オッズ、人口比率などの様々なバイアスメトリクスの適用を可能にする。
本稿では,データクリーニングにおける公正性の分野,特にEM内での公正性に寄与する。
論文 参考訳(メタデータ) (2024-05-30T13:37:53Z) - Intersectional Two-sided Fairness in Recommendation [41.96733939002468]
IFR(Inter-sectional Two-sided Fairness Recommendation)と呼ばれる新しいアプローチを提案する。
提案手法は,不利な群を知覚するシャープネス・アウェア・ロスを利用して協調的損失バランスを用いて,異なる交叉群に対して一貫した識別能力を開発する。
提案手法は, 両面の不公平性を効果的に軽減し, 従来手法よりも一貫して優れていた。
論文 参考訳(メタデータ) (2024-02-05T08:56:24Z) - Fairness-enhancing mixed effects deep learning improves fairness on in- and out-of-distribution clustered (non-iid) data [6.596656267996196]
フェア・ミックスド・エフェクト・ディープ・ラーニング(Fair MEDL)フレームワークを紹介する。
Fair MEDLは、クラスタ不変固定効果(FE)とクラスタ固有ランダム効果(RE)を定量化する
敵の偏見を取り入れて、平等化オッド、デモグラフィックパリティ、カウンターファクトフェアネスの3つの主要な指標の公平性を促進する。
論文 参考訳(メタデータ) (2023-10-04T20:18:45Z) - Counterpart Fairness -- Addressing Systematic between-group Differences in Fairness Evaluation [17.495053606192375]
機械学習を用いて意思決定を行う場合、アルゴリズム上の決定が公平であり、特定の個人やグループに対して差別的でないことを保証することが重要である。
既存のグループフェアネス手法は、人種や性別などの保護された変数によって規定されたグループ間で平等な結果を保証することを目的としている。
グループ間の系統的な差異が結果に重要な役割を果たす場合、これらの手法は非保護変数の影響を見逃す可能性がある。
論文 参考訳(メタデータ) (2023-05-29T15:41:12Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Equal Improvability: A New Fairness Notion Considering the Long-term
Impact [27.72859815965265]
EI(Equal Improvability)と呼ばれる新しい公正性の概念を提案する。
EIは、異なるグループ間で拒絶されたサンプルの潜在的受容率を等しくする。
提案したEI正規化アルゴリズムは、EIの観点から公平な分類器を見つけることを奨励することを示す。
論文 参考訳(メタデータ) (2022-10-13T04:59:28Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Equality before the Law: Legal Judgment Consistency Analysis for
Fairness [55.91612739713396]
本論文では,LInCo(Legal Inconsistency Coefficient)の判定不整合性評価指標を提案する。
法的な判断予測(LJP)モデルを用いて異なる集団の裁判官をシミュレートし、異なる集団で訓練されたLJPモデルによる判断結果の不一致を判断する。
私達はLInCoを実際の場合の不一致を探検するために使用し、次の観察に来ます:(1)地域およびジェンダーの不一致は法制度でありますが、ジェンダーの不一致は地方不一致より大いにより少しです。
論文 参考訳(メタデータ) (2021-03-25T14:28:00Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。