論文の概要: On the Robustness of Fairness Practices: A Causal Framework for Systematic Evaluation
- arxiv url: http://arxiv.org/abs/2601.03621v1
- Date: Wed, 07 Jan 2026 06:02:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 02:15:23.285982
- Title: On the Robustness of Fairness Practices: A Causal Framework for Systematic Evaluation
- Title(参考訳): フェアネス実践のロバスト性について:システム評価のための因果的枠組み
- Authors: Verya Monjezi, Ashish Kumar, Ashutosh Trivedi, Gang Tan, Saeid Tizpaz-Niari,
- Abstract要約: 機械学習アルゴリズムは、社会経済の応用において重要な決定を下すために、ますます普及している。
データ駆動とパターン探索の性質から、MLアルゴリズムは、異なる集団グループ間で機会、利益、資源、あるいは情報を不均等に分散する決定ロジックを開発することができる。
ソフトウェアエンジニアリングとMLコミュニティは、公正なMLソフトウェアを作成するためのベストプラクティスを確立するために、多大な努力をしています。
- 参考スコア(独自算出の注目度): 17.020173966728507
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) algorithms are increasingly deployed to make critical decisions in socioeconomic applications such as finance, criminal justice, and autonomous driving. However, due to their data-driven and pattern-seeking nature, ML algorithms may develop decision logic that disproportionately distributes opportunities, benefits, resources, or information among different population groups, potentially harming marginalized communities. In response to such fairness concerns, the software engineering and ML communities have made significant efforts to establish the best practices for creating fair ML software. These include fairness interventions for training ML models, such as including sensitive features, selecting non-sensitive attributes, and applying bias mitigators. But how reliably can software professionals tasked with developing data-driven systems depend on these recommendations? And how well do these practices generalize in the presence of faulty labels, missing data, or distribution shifts? These questions form the core theme of this paper.
- Abstract(参考訳): 機械学習(ML)アルゴリズムは、金融、刑事司法、自律運転といった社会経済学的応用において重要な決定を下すために、ますます普及している。
しかし、そのデータ駆動型およびパターン探索性のため、MLアルゴリズムは、異なる集団間で機会、利益、資源または情報を不均等に分配する決定論理を発達させ、余分なコミュニティを害する可能性がある。
このような公正な懸念に応えて、ソフトウェアエンジニアリングとMLコミュニティは、公正なMLソフトウェアを作成するためのベストプラクティスを確立するために、多大な努力を払ってきた。
これには、センシティブな特徴を含むMLモデルをトレーニングするための公正な介入、非センシティブな属性の選択、バイアス軽減策の適用などが含まれる。
しかし、データ駆動システムを開発するソフトウェア専門家は、いかにしてこれらの推奨に依存しているのだろうか?
そして、これらのプラクティスは、欠陥のあるラベル、欠落したデータ、あるいは分散シフトの存在をどの程度一般化するのでしょうか?
これらの疑問が本論文の中核となるテーマとなっている。
関連論文リスト
- Addressing Bias in LLMs: Strategies and Application to Fair AI-based Recruitment [49.81946749379338]
この研究は、トランスフォーマーベースのシステムの能力を分析して、データに存在する人口統計バイアスを学習する。
最終ツールにおける偏りを緩和する手段として,学習パイプラインからの性別情報を削減するためのプライバシー向上フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T15:29:43Z) - Contextual Fairness-Aware Practices in ML: A Cost-Effective Empirical Evaluation [48.943054662940916]
フェアネス・アウェアの実践を文脈的・費用対効果という2つの観点から検討する。
本研究は,文脈が公正な実践の有効性にどのように影響するかを考察する。
本研究の目的は,SE実践者に対して,最小パフォーマンスコストで公正性を実現するプラクティスの選択を指導することである。
論文 参考訳(メタデータ) (2025-03-19T18:10:21Z) - Causality Is Key to Understand and Balance Multiple Goals in Trustworthy ML and Foundation Models [91.24296813969003]
本稿では,機械学習に因果的手法を取り入れて,信頼性の高いMLの主要な原則間のトレードオフをナビゲートすることを提唱する。
我々は、信頼できるMLと基礎モデルの両方において、複数の競合する目標のバランスをとるためには、因果的アプローチが不可欠であると主張する。
論文 参考訳(メタデータ) (2025-02-28T14:57:33Z) - An Overview of Large Language Models for Statisticians [109.38601458831545]
大規模言語モデル(LLM)は人工知能(AI)の変換ツールとして登場した。
本稿では, 統計学者がLLMの開発に重要な貢献できる可能性について考察する。
我々は不確実性定量化、解釈可能性、公正性、プライバシー、透かし、モデル適応といった問題に焦点を当てる。
論文 参考訳(メタデータ) (2025-02-25T03:40:36Z) - Analyzing Fairness of Computer Vision and Natural Language Processing Models [1.0923877073891446]
本研究は,Microsoft による Fairlearn と IBM による AIF360 の2つのフェアネスライブラリを利用する。
この研究は、コンピュータビジョン(CV)と自然言語処理(NLP)モデルを用いて、非構造化データセットに対するバイアスの評価と緩和に焦点を当てている。
その結果, モデルの性能を維持しつつ, バイアスを効果的に低減し, 緩和アルゴリズムの性能向上を図っている。
論文 参考訳(メタデータ) (2024-12-13T06:35:55Z) - Analyzing Fairness of Classification Machine Learning Model with Structured Dataset [1.0923877073891446]
本研究では,分類タスクにおける構造化データセットに適用された機械学習モデルの公平性について検討する。
3つのフェアネスライブラリ、MicrosoftのFairlearn、IBMのAIF360、GoogleのWhat If Toolが採用されている。
この研究は、MLモデルのバイアスの程度を評価し、これらのライブラリの有効性を比較し、実践者に対して実行可能な洞察を導出することを目的としている。
論文 参考訳(メタデータ) (2024-12-13T06:31:09Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - LiFT: A Scalable Framework for Measuring Fairness in ML Applications [18.54302159142362]
本稿では、大規模なMLシステムの一部として、フェアネスメトリクスのスケーラブルな計算のためのフレームワークであるLinkedIn Fairness Toolkit(LiFT)を紹介する。
フェアネスツールを実際に導入する際の課題と、LinkedInでのデプロイメント中に学んだ教訓について論じる。
論文 参考訳(メタデータ) (2020-08-14T03:55:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。