論文の概要: Technical Challenges for Training Fair Neural Networks
- arxiv url: http://arxiv.org/abs/2102.06764v1
- Date: Fri, 12 Feb 2021 20:36:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 16:01:44.689364
- Title: Technical Challenges for Training Fair Neural Networks
- Title(参考訳): 公正なニューラルネットワークの訓練に関する技術的課題
- Authors: Valeriia Cherepanova and Vedant Nanda and Micah Goldblum and John P.
Dickerson and Tom Goldstein
- Abstract要約: 最先端のアーキテクチャを用いて顔認識と自動診断データセットの実験を行います。
我々は、大きなモデルは公平さの目標に過度に適合し、意図しない、望ましくない結果を生み出すことを観察する。
- 参考スコア(独自算出の注目度): 62.466658247995404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As machine learning algorithms have been widely deployed across applications,
many concerns have been raised over the fairness of their predictions,
especially in high stakes settings (such as facial recognition and medical
imaging). To respond to these concerns, the community has proposed and
formalized various notions of fairness as well as methods for rectifying unfair
behavior. While fairness constraints have been studied extensively for
classical models, the effectiveness of methods for imposing fairness on deep
neural networks is unclear. In this paper, we observe that these large models
overfit to fairness objectives, and produce a range of unintended and
undesirable consequences. We conduct our experiments on both facial recognition
and automated medical diagnosis datasets using state-of-the-art architectures.
- Abstract(参考訳): 機械学習アルゴリズムはアプリケーション間で広く展開されているため、その予測の公平性、特に高利害率設定(顔認識や医用画像など)に関して多くの懸念が持ち上がっている。
これらの懸念に対応するため、コミュニティは公平さの様々な概念と不公平な行動の是正方法を提案し、定式化した。
古典モデルでは公平性の制約が広く研究されているが、深層ニューラルネットワークに公平性を与える方法の有効性は不明である。
本稿では,これらのモデルが公平性目標に過度に適合し,意図しない,望ましくない結果をもたらすことを観察する。
最先端のアーキテクチャを用いて顔認識と自動診断データセットの実験を行っています。
関連論文リスト
- Biasing & Debiasing based Approach Towards Fair Knowledge Transfer for Equitable Skin Analysis [16.638722872021095]
学生ネットワークに公平な知識を伝達する2バイアスの教師のアプローチを提案する。
本手法は,学生ネットワークに存在するバイアスを,予測精度を損なうことなく軽減する。
論文 参考訳(メタデータ) (2024-05-16T17:02:23Z) - The Fairness Stitch: Unveiling the Potential of Model Stitching in
Neural Network De-Biasing [0.043512163406552]
本研究では,深層学習モデルの公平性を高めるために,"The Fairness Stitch"と呼ばれる新しい手法を提案する。
我々はCelebAとUTKFaceの2つのよく知られたデータセットを総合的に評価する。
フェアネスとパフォーマンスのバランスの取れたトレードオフを達成する上で, 顕著な改善がみられた。
論文 参考訳(メタデータ) (2023-11-06T21:14:37Z) - Toward Fairness Through Fair Multi-Exit Framework for Dermatological
Disease Diagnosis [16.493514215214983]
医用画像認識のためのフェアネス指向フレームワークを開発する。
当フレームワークは2つの皮膚疾患データセットにおける最先端の公平性を改善することができる。
論文 参考訳(メタデータ) (2023-06-26T08:48:39Z) - Last-Layer Fairness Fine-tuning is Simple and Effective for Neural
Networks [36.182644157139144]
我々は、公正なニューラルネットワークを効率的かつ安価に訓練するためのフレームワークを開発する。
最後の層微細チューニングだけでは、ディープニューラルネットワークの公平性を効果的に促進できる。
論文 参考訳(メタデータ) (2023-04-08T06:49:15Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Provably Training Neural Network Classifiers under Fairness Constraints [70.64045590577318]
過パラメータのニューラルネットワークが制約を満たしていることを示す。
公平なニューラルネットワーク分類器を構築する上で重要な要素は、ニューラルネットワークの非応答解析を確立することである。
論文 参考訳(メタデータ) (2020-12-30T18:46:50Z) - Domain Generalization for Medical Imaging Classification with
Linear-Dependency Regularization [59.5104563755095]
本稿では,医用画像分類分野におけるディープニューラルネットワークの一般化能力向上のための,シンプルだが効果的なアプローチを提案する。
医用画像の領域変数がある程度コンパクトであることに感銘を受けて,変分符号化による代表的特徴空間の学習を提案する。
論文 参考訳(メタデータ) (2020-09-27T12:30:30Z) - The FaceChannel: A Fast & Furious Deep Neural Network for Facial
Expression Recognition [71.24825724518847]
顔の表情の自動認識(FER)の最先端モデルは、非常に深いニューラルネットワークに基づいており、訓練には効果的だがかなり高価である。
私たちは、一般的なディープニューラルネットワークよりもはるかに少ないパラメータを持つ軽量ニューラルネットワークであるFaceChannelを形式化します。
我々は、私たちのモデルがFERの現在の最先端技術に匹敵するパフォーマンスを達成する方法を実証する。
論文 参考訳(メタデータ) (2020-09-15T09:25:37Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。