論文の概要: Evaluating Blocking Biases in Entity Matching
- arxiv url: http://arxiv.org/abs/2409.16410v1
- Date: Tue, 24 Sep 2024 19:20:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-27 08:31:10.106990
- Title: Evaluating Blocking Biases in Entity Matching
- Title(参考訳): エンティティマッチングにおけるブロックバイアスの評価
- Authors: Mohammad Hossein Moslemi, Harini Balamurugan, Mostafa Milani,
- Abstract要約: 本研究では、従来のブロッキングメトリクスを拡張して公正性を取り入れ、ブロッキングテクニックのバイアスを評価するためのフレームワークを提供する。
種々のブロッキング手法の有効性と妥当性を評価し,その潜在的なバイアスに関する洞察を提供する。
- 参考スコア(独自算出の注目度): 1.3818704498472678
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Entity Matching (EM) is crucial for identifying equivalent data entities across different sources, a task that becomes increasingly challenging with the growth and heterogeneity of data. Blocking techniques, which reduce the computational complexity of EM, play a vital role in making this process scalable. Despite advancements in blocking methods, the issue of fairness; where blocking may inadvertently favor certain demographic groups; has been largely overlooked. This study extends traditional blocking metrics to incorporate fairness, providing a framework for assessing bias in blocking techniques. Through experimental analysis, we evaluate the effectiveness and fairness of various blocking methods, offering insights into their potential biases. Our findings highlight the importance of considering fairness in EM, particularly in the blocking phase, to ensure equitable outcomes in data integration tasks.
- Abstract(参考訳): エンティティマッチング(EM)は、異なるソース間で等価なデータエンティティを特定するために不可欠である。
EMの計算複雑性を低減するブロッキング技術は、このプロセスをスケーラブルにする上で重要な役割を果たす。
ブロック法が進歩したにも拘わらず、ブロックが必然的に一部の人口集団を好むという公平性の問題はほとんど見過ごされてきた。
本研究では、従来のブロッキングメトリクスを拡張して公正性を取り入れ、ブロッキングテクニックのバイアスを評価するためのフレームワークを提供する。
実験により,種々のブロッキング手法の有効性と妥当性を評価し,その潜在的なバイアスに対する洞察を提供する。
本研究は,データ統合タスクにおける公平な結果を確保するため,特にブロッキングフェーズにおいて,EMの公平性を考慮することの重要性を強調した。
関連論文リスト
- Outlier Detection Bias Busted: Understanding Sources of Algorithmic Bias through Data-centric Factors [28.869581543676947]
unsupervised outlier detection (OD) は、金融、セキュリティ等に多くの応用がある。
この研究は、データ中心の異なる要因の下で検出モデルを監査することで、ODの不公平な源泉に光を当てることを目的としている。
この研究に基づくODアルゴリズムは、すべて公正な落とし穴を示すが、どの種類のデータバイアスがより影響を受けやすいかは異なる。
論文 参考訳(メタデータ) (2024-08-24T20:35:32Z) - Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - Threshold-Independent Fair Matching through Score Calibration [1.5530839016602822]
我々は、スコアベースのバイナリ分類におけるバイアスを評価するために、最近のメトリクスを使用して、エンティティマッチング(EM)に新しいアプローチを導入する。
このアプローチは、しきい値の設定に依存することなく、等化オッズ、等化オッズ、人口比率などの様々なバイアスメトリクスの適用を可能にする。
本稿では,データクリーニングにおける公正性の分野,特にEM内での公正性に寄与する。
論文 参考訳(メタデータ) (2024-05-30T13:37:53Z) - BlockEcho: Retaining Long-Range Dependencies for Imputing Block-Wise
Missing Data [2.507127323074818]
ブロックワイドなデータ不足は、実世界のデータ計算タスクにおいて重大な課題を生じさせる。
多くのSOTA行列補完法は、主に予測のために近隣の要素を過度に頼っているため、効果が低かった。
より包括的な解法として,新しい行列補完手法BlockEchoを提案する。
論文 参考訳(メタデータ) (2024-02-29T02:13:10Z) - Assessment of Treatment Effect Estimators for Heavy-Tailed Data [70.72363097550483]
ランダム化制御試験(RCT)における治療効果の客観的評価における中心的な障害は、その性能をテストするための基礎的真理(または検証セット)の欠如である。
この課題に対処するための新しいクロスバリデーションのような方法論を提供する。
本手法は,Amazonサプライチェーンに実装された709RCTに対して評価を行った。
論文 参考訳(メタデータ) (2021-12-14T17:53:01Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Mitigating Bias in Federated Learning [9.295028968787351]
本稿では,フェデレートラーニング(FL)におけるバイアスの原因について議論する。
データプライバシを損なうことなく、バイアスを軽減するために、前処理と内処理の3つの方法を提案する。
我々は、モデル性能、公平度メトリクス、バイアス学習パターンに対する影響を分析するために、複数のデータ分布に対して実験を行う。
論文 参考訳(メタデータ) (2020-12-04T08:04:12Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。