論文の概要: Connecting Algorithmic Fairness to Quality Dimensions in Machine
Learning in Official Statistics and Survey Production
- arxiv url: http://arxiv.org/abs/2402.09328v1
- Date: Wed, 14 Feb 2024 17:18:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 14:19:54.833502
- Title: Connecting Algorithmic Fairness to Quality Dimensions in Machine
Learning in Official Statistics and Survey Production
- Title(参考訳): 公式統計とサーベイ生産における機械学習におけるアルゴリズム的公平性と品質次元の連結
- Authors: Patrick Oliver Schenk and Christoph Kern
- Abstract要約: 国家統計機関(NSO)は、製品のタイムラインとコスト効率を改善するために、機械学習(ML)をますます重視している。
我々は,Yung et al. (2022)のQF4SA品質フレームワークを採用し,その品質次元をアルゴリズムフェアネスにマッピングする。
実証図と並行して、我々のマッピングが公式統計学、アルゴリズムフェアネス、信頼できる機械学習の分野における方法論にどのように貢献できるかを示す。
- 参考スコア(独自算出の注目度): 4.605037293860088
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: National Statistical Organizations (NSOs) increasingly draw on Machine
Learning (ML) to improve the timeliness and cost-effectiveness of their
products. When introducing ML solutions, NSOs must ensure that high standards
with respect to robustness, reproducibility, and accuracy are upheld as
codified, e.g., in the Quality Framework for Statistical Algorithms (QF4SA;
Yung et al. 2022). At the same time, a growing body of research focuses on
fairness as a pre-condition of a safe deployment of ML to prevent disparate
social impacts in practice. However, fairness has not yet been explicitly
discussed as a quality aspect in the context of the application of ML at NSOs.
We employ Yung et al. (2022)'s QF4SA quality framework and present a mapping of
its quality dimensions to algorithmic fairness. We thereby extend the QF4SA
framework in several ways: we argue for fairness as its own quality dimension,
we investigate the interaction of fairness with other dimensions, and we
explicitly address data, both on its own and its interaction with applied
methodology. In parallel with empirical illustrations, we show how our mapping
can contribute to methodology in the domains of official statistics,
algorithmic fairness, and trustworthy machine learning.
- Abstract(参考訳): 国家統計機関(NSO)は、製品のタイムラインとコスト効率を改善するために、機械学習(ML)をますます重視している。
MLソリューションを導入する際、NSOは、堅牢性、再現性、正確性に関する高い標準が、例えば、Quality Framework for Statistical Algorithms (QF4SA; Yung et al. 2022) の定式化で守られなければならない。
同時に、成長する研究機関は、実際に異なる社会的影響を防ぐために、MLの安全な配置の前提条件として公正性に焦点を当てている。
しかし、NSOにおけるMLの適用の文脈における品質面として、公正性はまだ明確に議論されていない。
我々は,Yung et al. (2022)のQF4SA品質フレームワークを採用し,その品質次元をアルゴリズムフェアネスにマッピングする。
したがって、qf4saフレームワークをいくつかの方法で拡張する: 私たちは、フェアネスを独自の品質次元として議論し、フェアネスと他の次元との相互作用を調査し、データ自体と応用方法論との相互作用の両方で明示的に対処する。
実証図と並行して、我々のマッピングが公式統計学、アルゴリズムフェアネス、信頼できる機械学習の分野における方法論にどのように貢献できるかを示す。
関連論文リスト
- Optimisation Strategies for Ensuring Fairness in Machine Learning: With and Without Demographics [4.662958544712181]
本稿では,機械学習フェアネスにおけるオープンな問題に対処するための2つの形式的枠組みを紹介する。
あるフレームワークでは、オペレータ値の最適化とmin-maxの目的が時系列問題の不正性に対処するために使用される。
第2のフレームワークでは、一般的に使用されるデータセットにおいて、性別や人種などのセンシティブな属性を欠くという課題に対処する。
論文 参考訳(メタデータ) (2024-11-13T22:29:23Z) - Between Randomness and Arbitrariness: Some Lessons for Reliable Machine Learning at Scale [2.50194939587674]
dissertation: 信頼性を犠牲にすることなくスケーラビリティを実現するために、MLにおける偏在性のソースの定量化と緩和、不確実性推定と最適化アルゴリズムのランダム性。
論文は、機械学習の信頼性測定に関する研究が法と政策の研究と密接に結びついていることの例による実証的な証明として機能する。
論文 参考訳(メタデータ) (2024-06-13T19:29:37Z) - Measuring, Interpreting, and Improving Fairness of Algorithms using
Causal Inference and Randomized Experiments [8.62694928567939]
本稿では,アルゴリズム決定の公平性を測り,解釈し,改善するためのMIIFフレームワークを提案する。
ランダム化実験を用いてアルゴリズムバイアスを測定し, 異なる処理, 異なる影響, 経済的価値の同時測定を可能にする。
また、ブラックボックスアルゴリズムの信念を正確に解釈し、蒸留する、説明可能な機械学習モデルを開発した。
論文 参考訳(メタデータ) (2023-09-04T19:45:18Z) - A Holistic Assessment of the Reliability of Machine Learning Systems [30.638615396429536]
本稿では,機械学習(ML)システムの信頼性に関する総合評価手法を提案する。
本フレームワークは, 分散精度, 分散シフト堅牢性, 対向ロバスト性, キャリブレーション, 分布外検出の5つの重要な特性を評価する。
異なるアルゴリズムアプローチの性能に関する洞察を提供するため、我々は最先端技術を特定し分類する。
論文 参考訳(メタデータ) (2023-07-20T05:00:13Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Individual Fairness under Uncertainty [26.183244654397477]
アルゴリズムフェアネス(英: Algorithmic Fairness)は、機械学習(ML)アルゴリズムにおいて確立された領域である。
本稿では,クラスラベルの検閲によって生じる不確実性に対処する,個別の公正度尺度とそれに対応するアルゴリズムを提案する。
この視点は、現実世界のアプリケーションデプロイメントにおいて、より現実的なフェアネス研究のモデルである、と我々は主張する。
論文 参考訳(メタデータ) (2023-02-16T01:07:58Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。