論文の概要: Provably Training Neural Network Classifiers under Fairness Constraints
- arxiv url: http://arxiv.org/abs/2012.15274v1
- Date: Wed, 30 Dec 2020 18:46:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 06:03:17.473147
- Title: Provably Training Neural Network Classifiers under Fairness Constraints
- Title(参考訳): 公正制約下でのニューラルネットワーク分類器の訓練
- Authors: You-Lin Chen, Zhaoran Wang, Mladen Kolar
- Abstract要約: 過パラメータのニューラルネットワークが制約を満たしていることを示す。
公平なニューラルネットワーク分類器を構築する上で重要な要素は、ニューラルネットワークの非応答解析を確立することである。
- 参考スコア(独自算出の注目度): 70.64045590577318
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training a classifier under fairness constraints has gotten increasing
attention in the machine learning community thanks to moral, legal, and
business reasons. However, several recent works addressing algorithmic fairness
have only focused on simple models such as logistic regression or support
vector machines due to non-convex and non-differentiable fairness criteria
across protected groups, such as race or gender. Neural networks, the most
widely used models for classification nowadays, are precluded and lack
theoretical guarantees. This paper aims to fill this missing but crucial part
of the literature of algorithmic fairness for neural networks. In particular,
we show that overparametrized neural networks could meet the fairness
constraints. The key ingredient of building a fair neural network classifier is
establishing no-regret analysis for neural networks in the overparameterization
regime, which may be of independent interest in the online learning of neural
networks and related applications.
- Abstract(参考訳): 公正な制約下での分類器の訓練は、道徳的、法的、ビジネス上の理由により、機械学習コミュニティで注目を集めている。
しかし、アルゴリズムの公正性に対処する最近のいくつかの研究は、非凸性や人種や性別などの保護されたグループ間での差別化不可能な公正性基準によるロジスティック回帰やサポートベクターマシンのような単純なモデルにのみ焦点を当てている。
ニューラルネットワークは、近年最も広く使われている分類モデルであり、理論的保証がない。
本稿では,ニューラルネットワークにおけるアルゴリズムフェアネスの文献の欠如を補うことを目的とする。
特に,過パラメータ化ニューラルネットワークが公平性制約を満たしていることを示す。
公平なニューラルネットワーク分類器を構築する上で重要な要素は、ニューラルネットワークと関連するアプリケーションのオンライン学習に独立して関心を持つ可能性のある、オーバーパラメータ化体制におけるニューラルネットワークの非回帰分析を確立することである。
関連論文リスト
- LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - NeuralFastLAS: Fast Logic-Based Learning from Raw Data [54.938128496934695]
シンボリック・ルール学習者は解釈可能な解を生成するが、入力を記号的に符号化する必要がある。
ニューロシンボリックアプローチは、ニューラルネットワークを使用して生データを潜在シンボリック概念にマッピングすることで、この問題を克服する。
我々は,ニューラルネットワークを記号学習者と共同でトレーニングする,スケーラブルで高速なエンドツーエンドアプローチであるNeuralFastLASを紹介する。
論文 参考訳(メタデータ) (2023-10-08T12:33:42Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Last-Layer Fairness Fine-tuning is Simple and Effective for Neural
Networks [36.182644157139144]
我々は、公正なニューラルネットワークを効率的かつ安価に訓練するためのフレームワークを開発する。
最後の層微細チューニングだけでは、ディープニューラルネットワークの公平性を効果的に促進できる。
論文 参考訳(メタデータ) (2023-04-08T06:49:15Z) - Consistency of Neural Networks with Regularization [0.0]
本稿では,ニューラルネットワークの規則化による一般的な枠組みを提案し,その一貫性を実証する。
双曲関数(Tanh)と整形線形単位(ReLU)の2種類の活性化関数が検討されている。
論文 参考訳(メタデータ) (2022-06-22T23:33:39Z) - Rank Diminishing in Deep Neural Networks [71.03777954670323]
ニューラルネットワークのランクは、層をまたがる情報を測定する。
これは機械学習の幅広い領域にまたがる重要な構造条件の例である。
しかし、ニューラルネットワークでは、低ランク構造を生み出す固有のメカニズムはあいまいで不明瞭である。
論文 参考訳(メタデータ) (2022-06-13T12:03:32Z) - Interpretable part-whole hierarchies and conceptual-semantic
relationships in neural networks [4.153804257347222]
本稿では、視覚的手がかりから部分全体階層を表現できるフレームワークであるAgglomeratorについて述べる。
本研究では,SmallNORB,MNIST,FashionMNIST,CIFAR-10,CIFAR-100などの共通データセットを用いて評価を行った。
論文 参考訳(メタデータ) (2022-03-07T10:56:13Z) - Probabilistic Verification of Neural Networks Against Group Fairness [21.158245095699456]
本稿では,ニューラルネットワークの公正性に対する公式な検証手法を提案する。
提案手法は,ユーザが提供するニューラルネットワークからマルコフ連鎖を学習するためのアプローチに基づいている。
分析の結果、神経重みは公平性を改善するために最適化できることが実証された。
論文 参考訳(メタデータ) (2021-07-18T04:34:31Z) - SOCRATES: Towards a Unified Platform for Neural Network Analysis [7.318255652722096]
ニューラルネットワークを解析する技術を開発するための統一的なフレームワークの構築を目指している。
我々は、様々なニューラルネットワークモデルの標準化フォーマットをサポートするSOCRATESと呼ばれるプラットフォームを開発する。
実験の結果,我々のプラットフォームは幅広いネットワークモデルや特性を扱えることがわかった。
論文 参考訳(メタデータ) (2020-07-22T05:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。