論文の概要: LimeOut: An Ensemble Approach To Improve Process Fairness
- arxiv url: http://arxiv.org/abs/2006.10531v1
- Date: Wed, 17 Jun 2020 09:00:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 20:00:42.389161
- Title: LimeOut: An Ensemble Approach To Improve Process Fairness
- Title(参考訳): LimeOut: プロセスの公正性を改善するためのアンサンブルアプローチ
- Authors: Vaishnavi Bhargava, Miguel Couceiro, Amedeo Napoli
- Abstract要約: プロセスの公平性に対処するために、"機能的なドロップアウト"に依存するフレームワークを提案する。
我々は「LIME Explanations」を用いて分類器の公平さを評価し、削除すべき感度のある特徴を判定する。
これは、アンサンブルが経験的に感度の低い特徴に依存せず、精度に改善または全く影響しないように示される分類器のプールを生成する。
- 参考スコア(独自算出の注目度): 8.9379057739817
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Artificial Intelligence and Machine Learning are becoming increasingly
present in several aspects of human life, especially, those dealing with
decision making. Many of these algorithmic decisions are taken without human
supervision and through decision making processes that are not transparent.
This raises concerns regarding the potential bias of these processes towards
certain groups of society, which may entail unfair results and, possibly,
violations of human rights. Dealing with such biased models is one of the major
concerns to maintain the public trust.
In this paper, we address the question of process or procedural fairness.
More precisely, we consider the problem of making classifiers fairer by
reducing their dependence on sensitive features while increasing (or, at least,
maintaining) their accuracy. To achieve both, we draw inspiration from
"dropout" techniques in neural based approaches, and propose a framework that
relies on "feature drop-out" to tackle process fairness. We make use of "LIME
Explanations" to assess a classifier's fairness and to determine the sensitive
features to remove. This produces a pool of classifiers (through feature
dropout) whose ensemble is shown empirically to be less dependent on sensitive
features, and with improved or no impact on accuracy.
- Abstract(参考訳): 人工知能と機械学習は、人間の生活のいくつかの側面、特に意思決定を扱う分野にますます存在し始めている。
これらのアルゴリズム的決定の多くは、人間の監督なく、透明性のない意思決定プロセスを通じて行われる。
これは、不公平な結果と、おそらくは人権侵害を伴う社会の特定のグループに対する、これらのプロセスの潜在的なバイアスに関する懸念を提起する。
このような偏りのあるモデルを扱うことは、公共の信頼を維持するための大きな懸念の1つです。
本稿では,プロセスや手続き的公正性の問題に対処する。
より正確には、分類器の精度を高め(少なくとも維持)、感度の高い特徴への依存を減らすことで、分類器をより公平にする問題を考える。
両方の目的を達成するために,ニューラルベースアプローチにおける"ドロップアウト"技術から着想を得て,プロセスフェアネスに取り組むために"機能ドロップアウト"に依存するフレームワークを提案する。
我々は「LIME Explanations」を用いて分類器の公平さを評価し、削除すべき感度のある特徴を判定する。
これは(特徴ドロップアウトを通じて)分類器のプールを生成し、そのアンサンブルは経験的に、感度の高い特徴に依存せず、精度に改善または全く影響しない。
関連論文リスト
- What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - A Sequentially Fair Mechanism for Multiple Sensitive Attributes [0.46040036610482665]
アルゴリズムフェアネスの標準的なユースケースでは、感度変数と対応するスコアの関係を排除することが目標である。
センシティブな特徴の集合にまたがって、段階的に公平性を達成できるシーケンシャルなフレームワークを提案する。
当社のアプローチは、リスクと不公平の間のトレードオフを緩和するフレームワークを包含することで、公平性をシームレスに拡張します。
論文 参考訳(メタデータ) (2023-09-12T22:31:57Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - A Novel Approach to Fairness in Automated Decision-Making using
Affective Normalization [2.0178765779788495]
本研究では、感情的、社会的に偏りのある成分を測定する方法を提案し、その除去を可能にする。
つまり、意思決定のプロセスを考えると、これらの感情的測定は決定における感情的バイアスを排除し、メソッド自体によって定義されたカテゴリの集合を公平にする。
論文 参考訳(メタデータ) (2022-05-02T11:48:53Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Fairness of Machine Learning Algorithms in Demography [0.0]
この論文は、ロシアの人口統計データセットのモデルフェアネスとプロセスフェアネスの研究に費やされている。
我々は、ニューラルベースアプローチの"ドロップアウト"テクニックからインスピレーションを得て、プロセスの公正性に対処するために"フィーチャードロップアウト"を使用するモデルを提案した。
論文 参考訳(メタデータ) (2022-02-02T13:12:35Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Making ML models fairer through explanations: the case of LimeOut [7.952582509792971]
アルゴリズムによる決定は今では日常的に使われており、複雑でバイアスのかかる機械学習(ML)プロセスに基づいている。
これは、偏見のある決定が個人や社会全体に与える影響を考えると、いくつかの懸念を提起する。
モデルフェアネスを改善するために,「フィーチャードロップアウト」というシンプルなアイデアと「アンサンブルアプローチ」を併用する方法について述べる。
論文 参考訳(メタデータ) (2020-11-01T19:07:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。