論文の概要: Procedural Fairness Through Decoupling Objectionable Data Generating Components
- arxiv url: http://arxiv.org/abs/2311.14688v3
- Date: Thu, 9 May 2024 20:25:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-13 20:27:06.846039
- Title: Procedural Fairness Through Decoupling Objectionable Data Generating Components
- Title(参考訳): 対象データ生成部品の分離による手続き的公正性
- Authors: Zeyu Tang, Jialu Wang, Yang Liu, Peter Spirtes, Kun Zhang,
- Abstract要約: 我々は、しばしば見過ごされる、手続き上の不公平を装った問題を明らかにし、対処する。
ジョン・ロールズによる純粋手続き的正義の擁護に触発され、我々は自動意思決定を社会機関のマイクロコズムと見なしている。
本稿では,中立なデータ生成コンポーネントを分離するフレームワークを提案する。
- 参考スコア(独自算出の注目度): 19.397947331900966
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We reveal and address the frequently overlooked yet important issue of disguised procedural unfairness, namely, the potentially inadvertent alterations on the behavior of neutral (i.e., not problematic) aspects of data generating process, and/or the lack of procedural assurance of the greatest benefit of the least advantaged individuals. Inspired by John Rawls's advocacy for pure procedural justice, we view automated decision-making as a microcosm of social institutions, and consider how the data generating process itself can satisfy the requirements of procedural fairness. We propose a framework that decouples the objectionable data generating components from the neutral ones by utilizing reference points and the associated value instantiation rule. Our findings highlight the necessity of preventing disguised procedural unfairness, drawing attention not only to the objectionable data generating components that we aim to mitigate, but also more importantly, to the neutral components that we intend to keep unaffected.
- Abstract(参考訳): 我々は、しばしば見落とされがちな手続き的不公平さ、すなわち、データ生成プロセスの中立的側面(問題ではない)の振る舞いに対する潜在的に不注意な変更、および/または最も有利でない個人の最大の利益に対する手続き的保証の欠如を明らかにし、対処する。
ジョン・ロールズによる純粋手続き的正義の擁護に触発され、我々は自動意思決定を社会機関のマイクロコズムとみなし、データ生成プロセス自体が手続き的公正性の要件を満たすことができるかを考える。
本稿では、参照点と関連する値インスタンス化ルールを利用して、中立なデータ生成コンポーネントを分離するフレームワークを提案する。
本研究は, 疑似手続き不公平を防止し, 目的とするデータ生成コンポーネントだけでなく, 影響を受けない中立なコンポーネントにも注意を向ける必要があることを明らかにする。
関連論文リスト
- Cloaked Classifiers: Pseudonymization Strategies on Sensitive Classification Tasks [4.66054169739129]
本稿では,データ保護と堅牢なプライバシ保護のバランスについて検討する。
我々は,多言語急進化データセットを手動で偽名化する手法を共有し,元のデータに匹敵する性能を確保する。
論文 参考訳(メタデータ) (2024-06-25T18:30:25Z) - Mimicking User Data: On Mitigating Fine-Tuning Risks in Closed Large Language Models [53.50543146583101]
小さなデータセット上の微調整された大きな言語モデルは、特定の下流タスクのパフォーマンスを向上させることができる。
悪意のあるアクターは、ほぼすべてのタスク固有のデータセットの構造を微妙に操作することで、より危険なモデル行動を促進することができる。
本稿では,タスク形式を模倣した安全データとユーザデータのスタイルを混合した新しい緩和戦略を提案する。
論文 参考訳(メタデータ) (2024-06-12T18:33:11Z) - The Data Minimization Principle in Machine Learning [61.17813282782266]
データ最小化は、収集、処理、保持されるデータの量を減らすことを目的としている。
様々な国際データ保護規制によって支持されている。
しかし、厳密な定式化が欠如しているため、その実践的な実装は依然として課題である。
論文 参考訳(メタデータ) (2024-05-29T19:40:27Z) - Counterfactual Explanations via Locally-guided Sequential Algorithmic
Recourse [13.95253855760017]
提案するLocalFACEは,現実的かつ実用的な対実的説明を構成するモデルに依存しない手法である。
提案手法は, ユーザのプライバシーを, 行動可能なアルゴリズムによる会話の構築に必要なデータのみを活用することで保護する。
論文 参考訳(メタデータ) (2023-09-08T08:47:23Z) - Disentangling representations in Restricted Boltzmann Machines without
adversaries [0.0]
本稿では, 敵対的差別者を訓練することなく, 簡易かつ効果的に表現を分離する方法を提案する。
当社のフレームワークが,データのログライクな表現によってコストを計算可能にする方法を示す。
論文 参考訳(メタデータ) (2022-06-23T10:24:20Z) - A Mutually Reinforced Framework for Pretrained Sentence Embeddings [49.297766436632685]
InfoCSEは高品質な文埋め込みを学習するための新しいフレームワークである。
文表現モデル自体を利用して、以下の反復的な自己スーパービジョンプロセスを実現する。
言い換えれば、表現学習とデータアノテーションは相互に強化され、強い自己超越効果が導出される。
論文 参考訳(メタデータ) (2022-02-28T14:00:16Z) - Learning to Limit Data Collection via Scaling Laws: Data Minimization
Compliance in Practice [62.44110411199835]
我々は機械学習法における文献に基づいて、データとシステム性能を結びつけるデータ解釈に基づく収集を制限するフレームワークを提案する。
我々は、性能曲線微分に基づくデータ最小化基準を定式化し、有効かつ解釈可能な分数法法技術を提供する。
論文 参考訳(メタデータ) (2021-07-16T19:59:01Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Reviving Purpose Limitation and Data Minimisation in Personalisation,
Profiling and Decision-Making Systems [0.0]
本論文では、学際法則とコンピュータサイエンスレンズを通じて、データ駆動システムにおいてデータ最小化と目的制限を有意義に実装できるかどうかを決定する。
分析の結果,この2つの法原則が個人データ処理のリスク軽減に重要な役割を担っていることが明らかとなった。
これらの原則は検討中のシステムにおいて重要なセーフガードであるが、実用的な実装には重要な制限がある。
論文 参考訳(メタデータ) (2021-01-15T16:36:29Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - LimeOut: An Ensemble Approach To Improve Process Fairness [8.9379057739817]
プロセスの公平性に対処するために、"機能的なドロップアウト"に依存するフレームワークを提案する。
我々は「LIME Explanations」を用いて分類器の公平さを評価し、削除すべき感度のある特徴を判定する。
これは、アンサンブルが経験的に感度の低い特徴に依存せず、精度に改善または全く影響しないように示される分類器のプールを生成する。
論文 参考訳(メタデータ) (2020-06-17T09:00:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。