論文の概要: Fairness-guided SMT-based Rectification of Decision Trees and Random
Forests
- arxiv url: http://arxiv.org/abs/2011.11001v1
- Date: Sun, 22 Nov 2020 12:30:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 12:08:58.956406
- Title: Fairness-guided SMT-based Rectification of Decision Trees and Random
Forests
- Title(参考訳): 公正誘導SMTによる決定木とランダム森林の変形
- Authors: Jiang Zhang, Ivan Beschastnikh, Sergey Mechtaev, Abhik Roychoudhury
- Abstract要約: 提案手法は, 決定木やランダム林を, 特定のデータセット, 公平性基準, センシティブな属性に対して公平に変換する。
カリフォルニア大学アーバイン校の有名な成人データセットの実験では、FairRepairがリアルな決定木やランダムな森林にスケールすることを示した。
フェアネス誘導修復技術は、与えられた(不公平な)データセットから得られる決定木やランダムな森林を修復するので、組織における意思決定におけるバイアスを特定し、修正するのに役立ちます。
- 参考スコア(独自算出の注目度): 14.423550468823152
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data-driven decision making is gaining prominence with the popularity of
various machine learning models. Unfortunately, real-life data used in machine
learning training may capture human biases, and as a result the learned models
may lead to unfair decision making. In this paper, we provide a solution to
this problem for decision trees and random forests. Our approach converts any
decision tree or random forest into a fair one with respect to a specific data
set, fairness criteria, and sensitive attributes. The \emph{FairRepair} tool,
built based on our approach, is inspired by automated program repair techniques
for traditional programs. It uses an SMT solver to decide which paths in the
decision tree could have their outcomes flipped to improve the fairness of the
model. Our experiments on the well-known adult dataset from UC Irvine
demonstrate that FairRepair scales to realistic decision trees and random
forests. Furthermore, FairRepair provides formal guarantees about soundness and
completeness of finding a repair. Since our fairness-guided repair technique
repairs decision trees and random forests obtained from a given (unfair)
data-set, it can help to identify and rectify biases in decision-making in an
organisation.
- Abstract(参考訳): データ駆動意思決定は、さまざまな機械学習モデルの人気で注目を集めている。
残念ながら、機械学習トレーニングで使用される実生活データは人間のバイアスを捉え、結果として学習されたモデルは不公平な意思決定につながる可能性がある。
本稿では,決定木と無作為林に対するこの問題に対する解決策を提供する。
我々のアプローチでは、決定木やランダムフォレストを特定のデータセット、公正基準、繊細な属性に関して公正なものに変換する。
私たちのアプローチに基づいて構築された \emph{FairRepair} ツールは、従来のプログラムの自動修復技術にインスパイアされています。
SMTソルバを使用して、決定ツリー内のどのパスで結果が反転してモデルの公平性を改善するかを決定する。
カリフォルニア大学アーバイン校の有名な成人データセットの実験では、FairRepairがリアルな決定木やランダムな森林にスケールすることを示した。
さらに、FairRepairは修理の健全性と完全性に関する正式な保証を提供する。
フェアネスガイドによる修復手法は、所定の(公正な)データセットから得られた決定木やランダムな森林を修復するので、組織内の意思決定におけるバイアスを特定し、修正する上で役立ちます。
関連論文リスト
- SKADA-Bench: Benchmarking Unsupervised Domain Adaptation Methods with Realistic Validation [55.87169702896249]
Unsupervised Domain Adaptation (DA) は、ラベル付きソースドメインでトレーニングされたモデルを適用して、ラベルなしのターゲットドメインでデータ分散シフトをうまく実行する。
本稿では,DA手法の評価と,再重み付け,マッピング,部分空間アライメントなど,既存の浅層アルゴリズムの公平な評価を行うフレームワークを提案する。
本ベンチマークでは,現実的な検証の重要性を強調し,現実的なアプリケーションに対する実践的なガイダンスを提供する。
論文 参考訳(メタデータ) (2024-07-16T12:52:29Z) - An Interpretable Client Decision Tree Aggregation process for Federated Learning [7.8973037023478785]
本稿では,フェデレート学習シナリオを対象とした解釈可能なクライアント決定木集約プロセスを提案する。
このモデルは、決定ツリーの複数の決定パスの集約に基づいており、ID3やCARTなど、さまざまな決定ツリータイプで使用することができる。
4つのデータセットで実験を行い、分析により、モデルで構築された木が局所モデルを改善し、最先端のモデルより優れていることが示された。
論文 参考訳(メタデータ) (2024-04-03T06:53:56Z) - Scaling Laws Beyond Backpropagation [64.0476282000118]
因果デコーダのみの変換器を効率的に訓練するための直接フィードバックアライメントの有効性について検討した。
DFAはバックプロパゲーションよりも効率的なスケーリングを提供していないことが分かりました。
論文 参考訳(メタデータ) (2022-10-26T10:09:14Z) - Optimal Decision Diagrams for Classification [68.72078059880018]
数学的プログラミングの観点から最適決定図の学習について検討する。
本稿では,新しい混合整数線形プログラミングモデルを提案する。
このモデルは、公正性、同義性、安定性の概念に対してどのように容易に拡張できるかを示す。
論文 参考訳(メタデータ) (2022-05-28T18:31:23Z) - EiFFFeL: Enforcing Fairness in Forests by Flipping Leaves [5.08078625937586]
落葉樹による森林の公正化を図るため,EiFFFeLと呼ばれる公正化手法を提案する。
実験結果から,提案手法は精度を低下させることなく,ユーザ定義したグループフェアネスの度合いを達成できることが示唆された。
論文 参考訳(メタデータ) (2021-12-29T07:48:38Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Fair Training of Decision Tree Classifiers [6.381149074212897]
決定木アンサンブルの個々の公平性を公式に検証する問題を研究する。
本手法では,公平性検証と公正性認識トレーニングはどちらも,分類モデルの安定性の概念に依存している。
論文 参考訳(メタデータ) (2021-01-04T12:04:22Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Rectified Decision Trees: Exploring the Landscape of Interpretable and
Effective Machine Learning [66.01622034708319]
我々は,reDT(rerectified decision tree)と呼ばれる知識蒸留に基づく決定木拡張を提案する。
我々は,ソフトラベルを用いたトレーニングを可能にする標準決定木の分割基準と終了条件を拡張した。
次に,教師モデルから抽出したソフトラベルに基づいて,新しいジャックニフェ法を用いてReDTを訓練する。
論文 参考訳(メタデータ) (2020-08-21T10:45:25Z) - Learning Representations for Axis-Aligned Decision Forests through Input
Perturbation [2.755007887718791]
軸に整合した意思決定の森は、長い間機械学習アルゴリズムの主要なクラスでした。
広く使われていることと豊富な歴史にもかかわらず、現在の決定林は生の構造化データを消費することができない。
本稿では,意思決定林の表現学習を実現するための新しい,直感的な提案を提案する。
論文 参考訳(メタデータ) (2020-07-29T11:56:38Z) - How fair can we go in machine learning? Assessing the boundaries of
fairness in decision trees [0.12891210250935145]
本稿では,バイアス緩和介入の統計的限界を探索するための最初の方法論を提案する。
機械学習において広く受け入れられている決定木分類器に焦点をあてる。
本手法は, 分類誤差の少ない精度で, 決定木モデルの最適化が可能であることを実験的に結論付けた。
論文 参考訳(メタデータ) (2020-06-22T16:28:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。