論文の概要: Intra-Processing Methods for Debiasing Neural Networks
- arxiv url: http://arxiv.org/abs/2006.08564v2
- Date: Mon, 7 Dec 2020 18:04:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 03:14:55.893658
- Title: Intra-Processing Methods for Debiasing Neural Networks
- Title(参考訳): ニューラルネットワークのデバイアス処理方法
- Authors: Yash Savani, Colin White, Naveen Sundar Govindarajulu
- Abstract要約: コンピュータビジョンや自然言語アプリケーションでは、大きなジェネリックモデルと特定のユースケースへの微調整から始めるのが一般的である。
このユースケースのために既存のプロセス内手法を再利用する方法を示し、さらに3つのベースラインアルゴリズムを提案する。
全ての手法は、等化奇数や統計的パリティ差などの一般的なグループフェアネス尺度に利用できる。
- 参考スコア(独自算出の注目度): 16.839910724227543
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As deep learning models become tasked with more and more decisions that
impact human lives, such as criminal recidivism, loan repayment, and face
recognition for law enforcement, bias is becoming a growing concern. Debiasing
algorithms are typically split into three paradigms: pre-processing,
in-processing, and post-processing. However, in computer vision or natural
language applications, it is common to start with a large generic model and
then fine-tune to a specific use-case. Pre- or in-processing methods would
require retraining the entire model from scratch, while post-processing methods
only have black-box access to the model, so they do not leverage the weights of
the trained model. Creating debiasing algorithms specifically for this
fine-tuning use-case has largely been neglected.
In this work, we initiate the study of a new paradigm in debiasing research,
intra-processing, which sits between in-processing and post-processing methods.
Intra-processing methods are designed specifically to debias large models which
have been trained on a generic dataset and fine-tuned on a more specific task.
We show how to repurpose existing in-processing methods for this use-case, and
we also propose three baseline algorithms: random perturbation, layerwise
optimization, and adversarial fine-tuning. All of our techniques can be used
for all popular group fairness measures such as equalized odds or statistical
parity difference. We evaluate these methods across three popular datasets from
the AIF360 toolkit, as well as on the CelebA faces dataset. Our code is
available at https://github.com/abacusai/intraprocessing_debiasing.
- Abstract(参考訳): 深層学習モデルが犯罪の解決、ローンの返済、法執行機関の顔認識など、人間の生活に影響を与える決定を下すようになるにつれ、偏見はますます懸念されている。
デバイアスアルゴリズムは通常、前処理、内処理、後処理の3つのパラダイムに分けられる。
しかし、コンピュータビジョンや自然言語アプリケーションでは、大きなジェネリックモデルから始めて、特定のユースケースに微調整することが一般的である。
プリプロセスまたはインプロセスメソッドは、モデル全体をスクラッチから再トレーニングする必要がありますが、後処理メソッドはモデルへのブラックボックスアクセスしか持たないので、トレーニングされたモデルの重みを活用しません。
この微調整ユースケースに特化したデバイアスアルゴリズムの作成は、ほとんど無視されている。
本研究では, プロセス内処理とプロセス後処理の中間に位置するデバイアス研究, プロセス内処理の新しいパラダイムの研究を開始する。
プロセス内処理は、一般的なデータセットでトレーニングされ、より特定のタスクで微調整された大きなモデルをデバイアスするように設計されている。
このユースケースのために既存の内部処理手法を再利用する方法を示し、また、ランダム摂動、階層最適化、逆調整の3つのベースラインアルゴリズムを提案する。
全ての手法は、等化奇数や統計的パリティ差などの一般的なグループフェアネス尺度に利用できる。
AIF360ツールキットとCelebAの顔データを用いて,これらの手法の評価を行った。
私たちのコードはhttps://github.com/abacusai/intraprocessing_debiasingで利用可能です。
関連論文リスト
- ConceptDrift: Uncovering Biases through the Lens of Foundation Models [5.025665239455297]
ceptDriftは、人間の事前知識なしでデータセット内のバイアスを自動的に識別できる。
本稿では,従来の作業のギャップを埋める2つのバイアス識別評価プロトコルを提案し,本手法がSoTA法よりも大幅に改善されていることを示す。
我々の手法は単一のモダリティに縛られず、画像(Waterbirds, CelebA, ImageNet)とテキストデータセット(CivilComments)の両方で実証的に検証する。
論文 参考訳(メタデータ) (2024-10-24T17:59:16Z) - NeuralGF: Unsupervised Point Normal Estimation by Learning Neural
Gradient Function [55.86697795177619]
3次元点雲の正規推定は3次元幾何処理の基本的な課題である。
我々は,ニューラルネットワークが入力点雲に適合することを奨励する,ニューラルグラデーション関数の学習のための新しいパラダイムを導入する。
広範に使用されているベンチマークの優れた結果から,本手法は非指向性および指向性正常推定タスクにおいて,より正確な正規性を学習できることが示されている。
論文 参考訳(メタデータ) (2023-11-01T09:25:29Z) - Unprocessing Seven Years of Algorithmic Fairness [16.044295043944487]
7年前、研究者は、異なる人口集団にわたるモデルのエラー率を等化するためのポストプロセッシング手法を提案した。
いくつかのデータセットに対する何千ものモデル評価を通じて、これらの主張を実証的に評価する。
論文 参考訳(メタデータ) (2023-06-12T17:44:15Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Probabilistic Modeling for Human Mesh Recovery [73.11532990173441]
本稿では,2次元の証拠から3次元の人体復元の問題に焦点を当てた。
我々は,この問題を,入力から3Dポーズの分布へのマッピング学習として再考した。
論文 参考訳(メタデータ) (2021-08-26T17:55:11Z) - A Near-Optimal Algorithm for Debiasing Trained Machine Learning Models [21.56208997475512]
我々は、深層ニューラルネットワーク(DNN)を含む訓練済みモデルのデバイアス化のためのスケーラブルな後処理アルゴリズムを提案する。
過剰なベイズリスクを限定することで、ほぼ最適であることを証明します。
標準ベンチマークデータセットでその利点を実証的に検証する。
論文 参考訳(メタデータ) (2021-06-06T09:45:37Z) - Deep Optimized Priors for 3D Shape Modeling and Reconstruction [38.79018852887249]
3Dモデリングと再構築のための新しい学習フレームワークを紹介します。
提案手法は,事前訓練によって制約された障壁を効果的に破壊することを示す。
論文 参考訳(メタデータ) (2020-12-14T03:56:31Z) - FlowStep3D: Model Unrolling for Self-Supervised Scene Flow Estimation [87.74617110803189]
シーンフローとして知られるシーン内の点の3次元運動を推定することは、コンピュータビジョンにおける中核的な問題である。
本稿では,シーンフローの予測を洗練するための反復的アライメント手順の1ステップを学習する再帰的アーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-19T23:23:48Z) - Combining Deep Learning Classifiers for 3D Action Recognition [4.581468205348203]
我々は、利用可能な前処理技術ごとに独立した分類器を訓練し、厳格な多数決ルールに基づいて分類結果を融合する。
最高のパフォーマンスの組み合わせのために、単一の分類器のみを訓練するために、正規化/拡張された入力データの変種を振り返って適用することができる。
論文 参考訳(メタデータ) (2020-04-21T21:36:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。