論文の概要: Individual Fairness in Pipelines
- arxiv url: http://arxiv.org/abs/2004.05167v1
- Date: Sun, 12 Apr 2020 00:31:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 05:13:54.087549
- Title: Individual Fairness in Pipelines
- Title(参考訳): パイプラインの個別公平性
- Authors: Cynthia Dwork, Christina Ilvento, Meena Jagadeesan
- Abstract要約: パイプライン構成下での個々の公正性について検討する。
我々は,ナイーブ監査が体系的な不公平さを明らかにすることができないことを示す。
後段の柔軟性を許容する構造を提供する。
- 参考スコア(独自算出の注目度): 27.040848169223484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is well understood that a system built from individually fair components
may not itself be individually fair. In this work, we investigate individual
fairness under pipeline composition. Pipelines differ from ordinary sequential
or repeated composition in that individuals may drop out at any stage, and
classification in subsequent stages may depend on the remaining "cohort" of
individuals. As an example, a company might hire a team for a new project and
at a later point promote the highest performer on the team. Unlike other
repeated classification settings, where the degree of unfairness degrades
gracefully over multiple fair steps, the degree of unfairness in pipelines can
be arbitrary, even in a pipeline with just two stages.
Guided by a panoply of real-world examples, we provide a rigorous framework
for evaluating different types of fairness guarantees for pipelines. We show
that na\"{i}ve auditing is unable to uncover systematic unfairness and that, in
order to ensure fairness, some form of dependence must exist between the design
of algorithms at different stages in the pipeline. Finally, we provide
constructions that permit flexibility at later stages, meaning that there is no
need to lock in the entire pipeline at the time that the early stage is
constructed.
- Abstract(参考訳): 個々の公平なコンポーネントから構築されたシステムは、それ自体が公平ではないことがよく理解されている。
本研究では,パイプライン構成下での個々の公正性について検討する。
パイプラインは、通常の逐次的または反復的な構成と異なり、個人が任意の段階でドロップアウトし、その後の段階における分類は個人の残りの「コホート」に依存する。
例えば、企業は新しいプロジェクトのためにチームを雇い、後でチームの最高のパフォーマーをプロモートするかもしれません。
不公平さの度合いが複数の公平なステップで優雅に低下する他の繰り返しの分類設定とは異なり、パイプライン内の不公平さの度合いは、2段階のパイプラインであっても任意である。
実例のパノパリーに導かれ、パイプラインのさまざまなタイプの公平性保証を評価するための厳格なフレームワークを提供します。
na\"{i}ve監査は系統的不公平を明らかにすることができず、公平性を確保するためには、パイプライン内の異なる段階におけるアルゴリズム設計の間に何らかの依存が存在する必要がある。
最後に、後段で柔軟性を許容する構造を提供しています。つまり、初期段階が構築された時点でパイプライン全体をロックする必要がなくなるのです。
関連論文リスト
- Diffusion Forcing: Next-token Prediction Meets Full-Sequence Diffusion [61.03681839276652]
拡散強制(Diffusion Forcing)は、拡散モデルをトレーニングし、トークンの集合に独立した音レベルを付与する、新たなトレーニングパラダイムである。
因果的次トーケン予測モデルを訓練して1つまたは複数の未来のトークンを生成することで、シーケンス生成モデルに拡散強制を適用する。
論文 参考訳(メタデータ) (2024-07-01T15:43:25Z) - Uncovering communities of pipelines in the task-fMRI analytical space [0.9217021281095907]
同様の結果、特に特定のパラメータを共有するパイプラインのサブセットがあることが示されています。
これらのパイプライン・ツー・ピペリンパターンは参加者のグループ間で安定しているが、異なるタスクをまたぐものではない。
コミュニティ間の差異を可視化することにより、パイプライン空間は主に脳の活性化領域の大きさによって駆動されることを示す。
論文 参考訳(メタデータ) (2023-12-11T09:18:14Z) - fairret: a Framework for Differentiable Fairness Regularization Terms [12.774108753281809]
偏見をモジュラーでフレキシブルな目的として定量化するフェアネス規則化用語(フェアレット)の枠組みを導入する。
私たちのコントリビューションには、FairretフレームワークのPyTorch実装が含まれています。
論文 参考訳(メタデータ) (2023-10-26T09:13:15Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - CertiFair: A Framework for Certified Global Fairness of Neural Networks [1.4620086904601473]
個人の公正さは、あるタスクに関して類似した個人が、ニューラルネットワーク(NN)モデルで同じように扱われることを示唆している。
分類タスクにおいて、所定のNNに対してフェアネス特性が保持するかどうかを確認する検証器を構築する。
次に、結果のNNの公平性に関する証明可能なバウンダリを提供する。
論文 参考訳(メタデータ) (2022-05-20T02:08:47Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Fair Preprocessing: Towards Understanding Compositional Fairness of Data
Transformers in Machine Learning Pipeline [9.066484448478551]
機械学習モデルにおける不公平性を計測し緩和する研究が実施されている。
データ前処理段階での特定の変換による不公平さを計測する研究は行われていない。
論文 参考訳(メタデータ) (2021-06-02T20:39:52Z) - Everything is Relative: Understanding Fairness with Optimal Transport [1.160208922584163]
バイアスとその構造を解釈可能かつ定量に探索できる公平性への最適輸送ベースアプローチを提案する。
我々のフレームワークは、アルゴリズムによる差別のよく知られた例を復元し、他の指標が失敗したときの不公平さを検知し、レコメンデーションの機会を探ることができる。
論文 参考訳(メタデータ) (2021-02-20T13:57:53Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。