論文の概要: Certifying Fairness of Probabilistic Circuits
- arxiv url: http://arxiv.org/abs/2212.02474v1
- Date: Mon, 5 Dec 2022 18:36:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 16:13:41.355013
- Title: Certifying Fairness of Probabilistic Circuits
- Title(参考訳): 確率回路の公正性の証明
- Authors: Nikil Roashan Selvam, Guy Van den Broeck, YooJung Choi
- Abstract要約: 本稿では,確率論的モデル,すなわち確率論的回路の一般クラスにおいて,識別パターンを探索するアルゴリズムを提案する。
また、指数関数的に多くの識別パターンを効果的に要約できる最小パターン、最大パターン、最適パターンなどの新しいパターンのクラスも導入する。
- 参考スコア(独自算出の注目度): 33.1089249944851
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increased use of machine learning systems for decision making,
questions about the fairness properties of such systems start to take center
stage. Most existing work on algorithmic fairness assume complete observation
of features at prediction time, as is the case for popular notions like
statistical parity and equal opportunity. However, this is not sufficient for
models that can make predictions with partial observation as we could miss
patterns of bias and incorrectly certify a model to be fair. To address this, a
recently introduced notion of fairness asks whether the model exhibits any
discrimination pattern, in which an individual characterized by (partial)
feature observations, receives vastly different decisions merely by disclosing
one or more sensitive attributes such as gender and race. By explicitly
accounting for partial observations, this provides a much more fine-grained
notion of fairness.
In this paper, we propose an algorithm to search for discrimination patterns
in a general class of probabilistic models, namely probabilistic circuits.
Previously, such algorithms were limited to naive Bayes classifiers which make
strong independence assumptions; by contrast, probabilistic circuits provide a
unifying framework for a wide range of tractable probabilistic models and can
even be compiled from certain classes of Bayesian networks and probabilistic
programs, making our method much more broadly applicable. Furthermore, for an
unfair model, it may be useful to quickly find discrimination patterns and
distill them for better interpretability. As such, we also propose a
sampling-based approach to more efficiently mine discrimination patterns, and
introduce new classes of patterns such as minimal, maximal, and Pareto optimal
patterns that can effectively summarize exponentially many discrimination
patterns
- Abstract(参考訳): 意思決定における機械学習システムの利用の増加に伴い、このようなシステムの公平性に関する疑問が中心となる。
アルゴリズムの公正性に関する既存の研究の多くは、統計的パリティや平等機会といった一般的な概念と同様に、予測時の特徴の完全な観察を前提としている。
しかし、偏りのパターンを見逃し、不正確にモデルが公平であることを証明できるため、部分的観測で予測できるモデルでは不十分である。
これを解決するために、最近導入された公平性の概念は、モデルが(部分的な)特徴観察によって特徴づけられる個人が、性別や人種のような1つ以上の敏感な属性を開示するだけで、大きく異なる決定を受けるような、識別パターンを示すかどうかを問うものである。
部分的な観察を明示的に考慮することで、これはより細かいフェアネスの概念を提供する。
本稿では,確率的モデルの一般クラス,すなわち確率的回路における識別パターンを探索するアルゴリズムを提案する。
対照的に、確率的回路は広い範囲の扱いやすい確率モデルのための統一的な枠組みを提供し、ベイズネットワークや確率的プログラムの特定のクラスからコンパイルすることも可能であり、より広く適用可能である。
さらに, 不公平なモデルでは, 識別パターンを迅速に発見し, より理解しやすいように蒸留することが有用である。
また、より効率的に識別パターンをマイニングするためのサンプリングベースアプローチを提案し、指数関数的に多くの識別パターンを効果的に要約できる最小パターン、最大パターン、パレートパターンなどの新しいパターンのクラスを導入する。
関連論文リスト
- Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Cross-model Fairness: Empirical Study of Fairness and Ethics Under Model Multiplicity [10.144058870887061]
1つの予測器が等しく機能するモデルのグループからアドホックに選択された場合、個人は害を受ける可能性があると我々は主張する。
これらの不公平性は実生活で容易に発見でき、技術的手段だけで緩和することは困難である可能性が示唆された。
論文 参考訳(メタデータ) (2022-03-14T14:33:39Z) - Masked prediction tasks: a parameter identifiability view [49.533046139235466]
マスク付きトークンの予測に広く用いられている自己教師型学習手法に着目する。
いくつかの予測タスクは識別可能性をもたらすが、他のタスクはそうではない。
論文 参考訳(メタデータ) (2022-02-18T17:09:32Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - A Low Rank Promoting Prior for Unsupervised Contrastive Learning [108.91406719395417]
提案手法は,従来の低階の促進をコントラスト学習の枠組みに効果的に組み込む新しい確率的グラフィカルモデルを構築する。
我々の仮説は、同じインスタンスクラスに属するすべてのサンプルが、小さな次元の同じ部分空間上にあることを明示的に要求する。
実証的な証拠は、提案アルゴリズムが複数のベンチマークにおける最先端のアプローチを明らかに上回っていることを示している。
論文 参考訳(メタデータ) (2021-08-05T15:58:25Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - All of the Fairness for Edge Prediction with Optimal Transport [11.51786288978429]
グラフにおけるエッジ予測の課題に対する公平性の問題について検討する。
本稿では,任意のグラフの隣接行列に対して,グループと個々の公正性のトレードオフを伴う埋め込み非依存の補修手順を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:33:13Z) - Addressing Fairness in Classification with a Model-Agnostic
Multi-Objective Algorithm [33.145522561104464]
分類における公平性の目標は、人種や性別などのセンシティブな属性に基づいて個人のグループを識別しない分類器を学習することである。
公正アルゴリズムを設計する1つのアプローチは、公正の概念の緩和を正規化項として使うことである。
我々はこの性質を利用して、既存の緩和よりも証明可能な公正の概念を近似する微分可能な緩和を定義する。
論文 参考訳(メタデータ) (2020-09-09T17:40:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。