論文の概要: Procedural Fairness Through Decoupling Objectionable Data Generating
Components
- arxiv url: http://arxiv.org/abs/2311.14688v2
- Date: Tue, 20 Feb 2024 15:40:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 20:16:52.195968
- Title: Procedural Fairness Through Decoupling Objectionable Data Generating
Components
- Title(参考訳): 対象データ生成部品の分離による手続き的公正性
- Authors: Zeyu Tang, Jialu Wang, Yang Liu, Peter Spirtes, Kun Zhang
- Abstract要約: 我々は、しばしば見過ごされる、手続き上の不公平を装った問題を明らかにし、対処する。
ジョン・ロールズによる純粋手続き的正義の擁護に触発され、我々は自動意思決定を社会機関のマイクロコズムと見なしている。
本稿では,中立なデータ生成コンポーネントを分離するフレームワークを提案する。
- 参考スコア(独自算出の注目度): 20.811009313137003
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We reveal and address the frequently overlooked yet important issue of
disguised procedural unfairness, namely, the potentially inadvertent
alterations on the behavior of neutral (i.e., not problematic) aspects of data
generating process, and/or the lack of procedural assurance of the greatest
benefit of the least advantaged individuals. Inspired by John Rawls's advocacy
for pure procedural justice, we view automated decision-making as a microcosm
of social institutions, and consider how the data generating process itself can
satisfy the requirements of procedural fairness. We propose a framework that
decouples the objectionable data generating components from the neutral ones by
utilizing reference points and the associated value instantiation rule. Our
findings highlight the necessity of preventing disguised procedural unfairness,
drawing attention not only to the objectionable data generating components that
we aim to mitigate, but also more importantly, to the neutral components that
we intend to keep unaffected.
- Abstract(参考訳): 我々は,データ生成プロセスの中立的側面(すなわち,問題ではない)の行動に対する潜在的不注意な変更や,最下位の個人による最大利益の手続的保証の欠如といった,偽の手続き的不公平性がしばしば見過ごされ,しばしば見過ごされがちな問題を明らかにし,対処する。
ジョン・ロールズによる純粋手続き的正義の擁護に触発され、我々は自動意思決定を社会機関のマイクロコズムとみなし、データ生成プロセス自体が手続き的公正性の要件を満たすことができるかを考える。
本稿では、参照点と関連する値インスタンス化ルールを利用して、中立なデータ生成コンポーネントを分離するフレームワークを提案する。
本研究は,偽装した手続き不公平を防止することの必要性を浮き彫りにして,我々が緩和しようとする不利なデータ生成コンポーネントだけでなく,影響のない中立コンポーネントにも注意を向けるものである。
関連論文リスト
- Counterfactual Explanations via Locally-guided Sequential Algorithmic
Recourse [13.95253855760017]
提案するLocalFACEは,現実的かつ実用的な対実的説明を構成するモデルに依存しない手法である。
提案手法は, ユーザのプライバシーを, 行動可能なアルゴリズムによる会話の構築に必要なデータのみを活用することで保護する。
論文 参考訳(メタデータ) (2023-09-08T08:47:23Z) - Disentangling representations in Restricted Boltzmann Machines without
adversaries [0.0]
本稿では, 敵対的差別者を訓練することなく, 簡易かつ効果的に表現を分離する方法を提案する。
当社のフレームワークが,データのログライクな表現によってコストを計算可能にする方法を示す。
論文 参考訳(メタデータ) (2022-06-23T10:24:20Z) - A Mutually Reinforced Framework for Pretrained Sentence Embeddings [49.297766436632685]
InfoCSEは高品質な文埋め込みを学習するための新しいフレームワークである。
文表現モデル自体を利用して、以下の反復的な自己スーパービジョンプロセスを実現する。
言い換えれば、表現学習とデータアノテーションは相互に強化され、強い自己超越効果が導出される。
論文 参考訳(メタデータ) (2022-02-28T14:00:16Z) - Unsupervised Learning of Debiased Representations with Pseudo-Attributes [85.5691102676175]
教師なし方式で,単純かつ効果的な脱バイアス手法を提案する。
特徴埋め込み空間上でクラスタリングを行い、クラスタリング結果を利用して疑似属性を識別する。
次に,非偏り表現を学習するために,クラスタベースの新しい重み付け手法を用いる。
論文 参考訳(メタデータ) (2021-08-06T05:20:46Z) - Learning to Limit Data Collection via Scaling Laws: Data Minimization
Compliance in Practice [62.44110411199835]
我々は機械学習法における文献に基づいて、データとシステム性能を結びつけるデータ解釈に基づく収集を制限するフレームワークを提案する。
我々は、性能曲線微分に基づくデータ最小化基準を定式化し、有効かつ解釈可能な分数法法技術を提供する。
論文 参考訳(メタデータ) (2021-07-16T19:59:01Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Reviving Purpose Limitation and Data Minimisation in Personalisation,
Profiling and Decision-Making Systems [0.0]
本論文では、学際法則とコンピュータサイエンスレンズを通じて、データ駆動システムにおいてデータ最小化と目的制限を有意義に実装できるかどうかを決定する。
分析の結果,この2つの法原則が個人データ処理のリスク軽減に重要な役割を担っていることが明らかとなった。
これらの原則は検討中のシステムにおいて重要なセーフガードであるが、実用的な実装には重要な制限がある。
論文 参考訳(メタデータ) (2021-01-15T16:36:29Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - LimeOut: An Ensemble Approach To Improve Process Fairness [8.9379057739817]
プロセスの公平性に対処するために、"機能的なドロップアウト"に依存するフレームワークを提案する。
我々は「LIME Explanations」を用いて分類器の公平さを評価し、削除すべき感度のある特徴を判定する。
これは、アンサンブルが経験的に感度の低い特徴に依存せず、精度に改善または全く影響しないように示される分類器のプールを生成する。
論文 参考訳(メタデータ) (2020-06-17T09:00:58Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - FAE: A Fairness-Aware Ensemble Framework [18.993049769711114]
FAE(Fairness-Aware Ensemble)フレームワークは、データ分析プロセスの前処理と後処理の両方でフェアネスに関連する介入を組み合わせる。
事前処理では,保護群とクラス不均衡の問題に対処する。
後処理のステップでは、決定境界を公平な方向にシフトさせることにより、クラスオーバーラップの問題に取り組む。
論文 参考訳(メタデータ) (2020-02-03T13:05:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。