論文の概要: Online Decision Trees with Fairness
- arxiv url: http://arxiv.org/abs/2010.08146v1
- Date: Thu, 15 Oct 2020 02:50:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 03:17:49.261101
- Title: Online Decision Trees with Fairness
- Title(参考訳): 公正なオンライン決定木
- Authors: Wenbin Zhang and Liang Zhao
- Abstract要約: 本稿では,分散フローの可能なデータストリームに公平性を持つオンライン決定ツリーの新たなフレームワークを提案する。
具体的には、まず、データを可能な限り符号化する2つの新しい公平分割基準を提案する。
第2に、オンラインの公正意思決定要求を満たす2つの公正決定木オンライン成長アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 8.949941684885323
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While artificial intelligence (AI)-based decision-making systems are
increasingly popular, significant concerns on the potential discrimination
during the AI decision-making process have been observed. For example, the
distribution of predictions is usually biased and dependents on the sensitive
attributes (e.g., gender and ethnicity). Numerous approaches have therefore
been proposed to develop decision-making systems that are
discrimination-conscious by-design, which are typically batch-based and require
the simultaneous availability of all the training data for model learning.
However, in the real-world, the data streams usually come on the fly which
requires the model to process each input data once "on arrival" and without the
need for storage and reprocessing. In addition, the data streams might also
evolve over time, which further requires the model to be able to simultaneously
adapt to non-stationary data distributions and time-evolving bias patterns,
with an effective and robust trade-off between accuracy and fairness. In this
paper, we propose a novel framework of online decision tree with fairness in
the data stream with possible distribution drifting. Specifically, first, we
propose two novel fairness splitting criteria that encode the data as well as
possible, while simultaneously removing dependence on the sensitive attributes,
and further adapts to non-stationary distribution with fine-grained control
when needed. Second, we propose two fairness decision tree online growth
algorithms that fulfills different online fair decision-making requirements.
Our experiments show that our algorithms are able to deal with discrimination
in massive and non-stationary streaming environments, with a better trade-off
between fairness and predictive performance.
- Abstract(参考訳): 人工知能(AI)に基づく意思決定システムはますます普及しているが、AI意思決定プロセスにおける潜在的な差別に対する重要な懸念が観測されている。
例えば、予測の分布は通常偏りがあり、敏感な属性(例えば、性別と民族)に依存する。
したがって、多くのアプローチが、モデル学習のための訓練データの同時利用を必要とするバッチベースで、識別を意識した副設計の意思決定システムを開発するために提案されている。
しかし、現実の世界では、データストリームは通常、モデルが各入力データを"到着時に"一度だけ、ストレージや再処理を必要とせずに処理する必要がある。
さらに、データストリームも時間とともに進化する可能性があるため、モデルが非定常データ分散と時間発展バイアスパターンに同時適応でき、正確性と公平性の間の効果的かつ堅牢なトレードオフが要求される。
本稿では,データストリーム内の公平性と分散ドリフトが可能なオンライン決定木の新たな枠組みを提案する。
具体的には,重要属性への依存を同時に排除しながら,データを可能な限りエンコードする2つの新しい公平性分割基準を提案し,必要に応じて微粒度制御を施した非定常分布にも適応する。
次に,オンラインの公正意思決定要求を満たす2つのオンライン成長アルゴリズムを提案する。
実験の結果,我々のアルゴリズムは,大規模および非定常なストリーミング環境において,公平性と予測性能のトレードオフを向上し,差別に対処できることがわかった。
関連論文リスト
- Counterfactual Fairness through Transforming Data Orthogonal to Bias [7.109458605736819]
我々は新しいデータ前処理アルゴリズムOrthogonal to Bias (OB)を提案する。
OBは、連続的な敏感な変数群の影響を排除し、機械学習アプリケーションにおける反ファクトフェアネスを促進するように設計されている。
OBはモデルに依存しないため、幅広い機械学習モデルやタスクに適用できる。
論文 参考訳(メタデータ) (2024-03-26T16:40:08Z) - Demographic Parity: Mitigating Biases in Real-World Data [0.0]
分類ユーティリティを保ちながら不要なバイアスを除去することを保証する頑健な方法論を提案する。
我々のアプローチは、実世界のデータから導出することで、常にモデルに依存しない方法でこれを達成することができる。
論文 参考訳(メタデータ) (2023-09-27T11:47:05Z) - Preventing Discriminatory Decision-making in Evolving Data Streams [8.952662914331901]
機械学習のバイアスは、ここ10年で明らかに注目を集めている。
意思決定システムのバイアスに対処する最も公正な機械学習(fair-ML)は、オフライン設定のみに焦点を当てている。
オンラインシステムが現実世界で広く普及しているにもかかわらず、オンライン設定におけるバイアスを特定し修正する作業は極めて不十分である。
論文 参考訳(メタデータ) (2023-02-16T01:20:08Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Simultaneous Improvement of ML Model Fairness and Performance by
Identifying Bias in Data [1.76179873429447]
トレーニング前にデータセットから削除すべき特定の種類のバイアスを記述したインスタンスを検出できるデータ前処理手法を提案する。
特に、類似した特徴を持つインスタンスが存在するが、保護属性の変動に起因するラベルが異なる問題設定では、固有のバイアスがデータセット内で引き起こされる、と主張する。
論文 参考訳(メタデータ) (2022-10-24T13:04:07Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。