論文の概要: fairml: A Statistician's Take on Fair Machine Learning Modelling
- arxiv url: http://arxiv.org/abs/2305.02009v1
- Date: Wed, 3 May 2023 09:59:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-04 15:23:04.356541
- Title: fairml: A Statistician's Take on Fair Machine Learning Modelling
- Title(参考訳): Fairml: 公正な機械学習モデルに関する統計学者の見解
- Authors: Marco Scutari
- Abstract要約: 本稿では,これまでの研究(Scutari, Panero, Proissl 2022)および関連モデルを文献で実装したfairmlパッケージについて述べる。
Fairmlは古典的な統計モデルと ペナル化された回帰結果に基づいて設計されています
フェアネスを強制するために使われる制約は、推定をモデル化することであり、望まれるモデルファミリと各アプリケーションに対するフェアネス定義の混合とマッチングを可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The adoption of machine learning in applications where it is crucial to
ensure fairness and accountability has led to a large number of model proposals
in the literature, largely formulated as optimisation problems with constraints
reducing or eliminating the effect of sensitive attributes on the response.
While this approach is very flexible from a theoretical perspective, the
resulting models are somewhat black-box in nature: very little can be said
about their statistical properties, what are the best practices in their
applied use, and how they can be extended to problems other than those they
were originally designed for. Furthermore, the estimation of each model
requires a bespoke implementation involving an appropriate solver which is less
than desirable from a software engineering perspective.
In this paper, we describe the fairml R package which implements our previous
work (Scutari, Panero, and Proissl 2022) and related models in the literature.
fairml is designed around classical statistical models (generalised linear
models) and penalised regression results (ridge regression) to produce fair
models that are interpretable and whose properties are well-known. The
constraint used to enforce fairness is orthogonal to model estimation, making
it possible to mix-and-match the desired model family and fairness definition
for each application. Furthermore, fairml provides facilities for model
estimation, model selection and validation including diagnostic plots.
- Abstract(参考訳): 公正性と説明責任を保証することが不可欠であるアプリケーションにおける機械学習の採用は、多くのモデル提案をもたらし、主に最適化問題として定式化され、応答に対する機密属性の影響を減少または排除する制約が課されている。
このアプローチは理論的な観点からは非常に柔軟だが、結果として得られるモデルは本質的には幾分ブラックボックスであり、統計的性質、応用利用におけるベストプラクティス、本来設計されたもの以外の問題への拡張方法などについてはほとんど語られません。
さらに、各モデルの推定には、ソフトウェア工学の観点からは望ましくない適切な解法を含む疎外的な実装が必要である。
本稿では,これまでの論文(Scutari, Panero, Proissl 2022)とその関連モデルを実装した Fairml R パッケージについて述べる。
fairml は古典統計モデル(一般化線形モデル)とペナル化回帰結果(リッジ回帰)に基づいて設計され、解釈可能で、その特性がよく知られているフェアモデルを生成する。
フェアネスを強制するために使用される制約は、モデル推定に直交するものであり、各アプリケーションに対して望ましいモデルファミリとフェアネス定義を混合およびマッチングすることができる。
さらにfairmlは、診断プロットを含むモデル推定、モデル選択、検証のための設備を提供する。
関連論文リスト
- Revisiting SMoE Language Models by Evaluating Inefficiencies with Task Specific Expert Pruning [78.72226641279863]
SMOE(Sparse Mixture of Expert)モデルは、言語モデリングにおける高密度モデルに代わるスケーラブルな代替品として登場した。
本研究は,SMoEアーキテクチャの設計に関する意思決定を行うために,タスク固有のモデルプルーニングについて検討する。
適応型タスク対応プルーニング手法 UNCURL を導入し,MoE 層当たりの専門家数をオフラインで学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T22:35:03Z) - Fair Multivariate Adaptive Regression Splines for Ensuring Equity and
Transparency [1.124958340749622]
学習過程に公平度を組み込んだMARSに基づく公正度予測モデルを提案する。
MARSは、特徴選択を行い、非線形関係を扱い、解釈可能な決定ルールを生成し、変数の最適分割基準を導出する非パラメトリック回帰モデルである。
実世界のデータにfairMARSモデルを適用し、精度とエクイティの観点からその有効性を実証する。
論文 参考訳(メタデータ) (2024-02-23T19:02:24Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Minimal Value-Equivalent Partial Models for Scalable and Robust Planning
in Lifelong Reinforcement Learning [56.50123642237106]
モデルに基づく強化学習における一般的な実践は、エージェントの環境のあらゆる側面をモデル化するモデルを学ぶことである。
このようなモデルは、生涯にわたる強化学習シナリオにおいて、スケーラブルで堅牢な計画を実行するのに特に適していない、と我々は主張する。
我々は,「最小値部分モデル」と呼ぶ,環境の関連する側面のみをモデル化する新しい種類のモデルを提案する。
論文 参考訳(メタデータ) (2023-01-24T16:40:01Z) - Investigating Ensemble Methods for Model Robustness Improvement of Text
Classifiers [66.36045164286854]
既存のバイアス機能を分析し、すべてのケースに最適なモデルが存在しないことを実証します。
適切なバイアスモデルを選択することで、より洗練されたモデル設計でベースラインよりもロバスト性が得られる。
論文 参考訳(メタデータ) (2022-10-28T17:52:10Z) - A non-asymptotic penalization criterion for model selection in mixture
of experts models [1.491109220586182]
ガウス型局所化moe(glome)回帰モデルを用いて異種データをモデル化する。
このモデルは、統計的推定とモデル選択の問題に関して難しい疑問を提起する。
本稿では,GLoMEモデルの成分数を推定する問題について,最大推定法を用いて検討する。
論文 参考訳(メタデータ) (2021-04-06T16:24:55Z) - fairmodels: A Flexible Tool For Bias Detection, Visualization, And
Mitigation [3.548416925804316]
この記事では、公平性を検証し、分類モデルのバイアスを取り除くのに役立つRパッケージのフェアモデルを紹介します。
実装された関数と公平度メトリクスは、異なる視点からモデル公平性検証を可能にする。
このパッケージには、モデルの差別を減らそうとするバイアス緩和の一連の方法が含まれている。
論文 参考訳(メタデータ) (2021-04-01T15:06:13Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - On Statistical Efficiency in Learning [37.08000833961712]
モデルフィッティングとモデル複雑性のバランスをとるためのモデル選択の課題に対処する。
モデルの複雑さを順次拡大し、選択安定性を高め、コストを削減するオンラインアルゴリズムを提案します。
実験の結果, 提案手法は予測能力が高く, 計算コストが比較的低いことがわかった。
論文 参考訳(メタデータ) (2020-12-24T16:08:29Z) - Models, Pixels, and Rewards: Evaluating Design Trade-offs in Visual
Model-Based Reinforcement Learning [109.74041512359476]
視覚的MBRLアルゴリズムにおける予測モデルの設計決定について検討する。
潜在空間の使用など、しばしば重要と見なされる設計上の決定は、タスクのパフォーマンスにはほとんど影響しないことが分かりました。
我々は,この現象が探索とどのように関係しているか,および標準ベンチマークにおける下位スコーリングモデルのいくつかが,同じトレーニングデータでトレーニングされた場合のベストパフォーマンスモデルと同等の性能を発揮するかを示す。
論文 参考訳(メタデータ) (2020-12-08T18:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。