論文の概要: Exploring Fairness Interventions in Open Source Projects
- arxiv url: http://arxiv.org/abs/2507.07026v1
- Date: Wed, 09 Jul 2025 16:57:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.686816
- Title: Exploring Fairness Interventions in Open Source Projects
- Title(参考訳): オープンソースプロジェクトにおける公正な介入を探る
- Authors: Sadia Afrin Mim, Fatema Tuz Zohra, Justin Smith, Brittany Johnson,
- Abstract要約: 機械学習モデルのバイアスは、刑事司法や医療などの分野に悪影響を及ぼす可能性がある。
バイアスを緩和し、より公平なモデルの作成を促進することを目的として、機械学習フェアネスの介入が開発されている。
これらの介入が利用可能になっているにもかかわらず、現実世界のアプリケーションでの採用は制限されている。
- 参考スコア(独自算出の注目度): 4.637328271312331
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The deployment of biased machine learning (ML) models has resulted in adverse effects in crucial sectors such as criminal justice and healthcare. To address these challenges, a diverse range of machine learning fairness interventions have been developed, aiming to mitigate bias and promote the creation of more equitable models. Despite the growing availability of these interventions, their adoption in real-world applications remains limited, with many practitioners unaware of their existence. To address this gap, we systematically identified and compiled a dataset of 62 open source fairness interventions and identified active ones. We conducted an in-depth analysis of their specifications and features to uncover considerations that may drive practitioner preference and to identify the software interventions actively maintained in the open source ecosystem. Our findings indicate that 32% of these interventions have been actively maintained within the past year, and 50% of them offer both bias detection and mitigation capabilities, mostly during inprocessing.
- Abstract(参考訳): バイアスド機械学習(ML)モデルの展開は、刑事司法や医療といった重要な分野に悪影響を及ぼしている。
これらの課題に対処するために、バイアスを緩和し、より公平なモデルの作成を促進することを目的として、さまざまな機械学習フェアネス介入が開発されている。
これらの介入が利用可能になっているにもかかわらず、現実のアプリケーションでの採用は限定的であり、多くの実践者がその存在を知らない。
このギャップに対処するために、62のオープンソースフェアネス介入データセットを体系的に同定し、コンパイルし、アクティブなものを同定した。
我々は,その仕様と特徴を詳細に分析し,実践者の嗜好を喚起し,オープンソースエコシステムで積極的に維持されているソフトウェア介入を特定するための考察を行った。
以上の結果から,過去1年間に32%の介入が活発に維持され,50%が非処理中のバイアス検出と緩和機能を提供していることが示唆された。
関連論文リスト
- Do Fairness Interventions Come at the Cost of Privacy: Evaluations for Binary Classifiers [17.243744418309593]
我々は、メンバーシップ推論攻撃(MIA)と属性推論攻撃(AIA)により、公平性向上したバイナリ分類器のプライバシーリスクを評価する。
公正なモデルと偏見のあるモデルの間の予測不一致を利用して、MIAとAIAの両方に対する高度な攻撃結果をもたらす潜在的な脅威メカニズムを明らかにする。
本研究は、フェアネス研究における未調査のプライバシー上の脅威を明らかにし、モデル展開前に潜在的なセキュリティ脆弱性を徹底的に評価することを提唱する。
論文 参考訳(メタデータ) (2025-03-08T10:21:21Z) - DispaRisk: Auditing Fairness Through Usable Information [21.521208250966918]
DispaRiskは、機械学習パイプラインの初期段階におけるデータセットの格差の潜在的なリスクを評価するために設計されたフレームワークである。
以上の結果から,識別リスクの高いデータセットを識別するDispaRiskの能力,MLパイプライン内のバイアスに起因するモデルファミリの検出,バイアスリスクの説明可能性の向上が示された。
論文 参考訳(メタデータ) (2024-05-20T20:56:01Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - A Framework for Fairness: A Systematic Review of Existing Fair AI
Solutions [4.594159253008448]
公正性の研究の大部分は、機械学習の実践者がアルゴリズムを設計しながらバイアスを監査するために使用できるツールの開発に費やされている。
実際には、これらの公平性ソリューションの応用例が欠如している。
このレビューでは、定義されたアルゴリズムバイアス問題と提案された公正解空間の詳細な概要について述べる。
論文 参考訳(メタデータ) (2021-12-10T17:51:20Z) - SurvITE: Learning Heterogeneous Treatment Effects from Time-to-Event
Data [83.50281440043241]
時系列データから不均一な処理効果を推定する問題について検討する。
本稿では,バランス表現に基づく治療特異的ハザード推定のための新しいディープラーニング手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T20:13:17Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Technical Challenges for Training Fair Neural Networks [62.466658247995404]
最先端のアーキテクチャを用いて顔認識と自動診断データセットの実験を行います。
我々は、大きなモデルは公平さの目標に過度に適合し、意図しない、望ましくない結果を生み出すことを観察する。
論文 参考訳(メタデータ) (2021-02-12T20:36:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。