論文の概要: Simon Says: Evaluating and Mitigating Bias in Pruned Neural Networks
with Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2106.07849v1
- Date: Tue, 15 Jun 2021 02:59:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-16 15:35:46.727930
- Title: Simon Says: Evaluating and Mitigating Bias in Pruned Neural Networks
with Knowledge Distillation
- Title(参考訳): Simon氏が語る: ニューラルネットワークの知識蒸留によるバイアスの評価と緩和
- Authors: Cody Blakeney, Nathaniel Huish, Yan Yan, Ziliang Zong
- Abstract要約: プルーニングニューラルネットワークの評価と緩和に関する現在の文献には明確なギャップがある。
本稿では,CEV(Combined Error Variance)とSDE(Symmetric Distance Error)の2つの簡易かつ効果的な指標を提案する。
第二に、知識蒸留は、不均衡なデータセットであっても、刈り取られたニューラルネットワークにおける誘導バイアスを軽減することができることを実証する。
第3に、モデル類似性はプルーニング誘起バイアスと強い相関関係があることを明らかにし、なぜプルーニングニューラルネットワークでバイアスが発生するのかを説明する強力な方法を提供する。
- 参考スコア(独自算出の注目度): 8.238238958749134
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years the ubiquitous deployment of AI has posed great concerns in
regards to algorithmic bias, discrimination, and fairness. Compared to
traditional forms of bias or discrimination caused by humans, algorithmic bias
generated by AI is more abstract and unintuitive therefore more difficult to
explain and mitigate. A clear gap exists in the current literature on
evaluating and mitigating bias in pruned neural networks. In this work, we
strive to tackle the challenging issues of evaluating, mitigating, and
explaining induced bias in pruned neural networks. Our paper makes three
contributions. First, we propose two simple yet effective metrics, Combined
Error Variance (CEV) and Symmetric Distance Error (SDE), to quantitatively
evaluate the induced bias prevention quality of pruned models. Second, we
demonstrate that knowledge distillation can mitigate induced bias in pruned
neural networks, even with unbalanced datasets. Third, we reveal that model
similarity has strong correlations with pruning induced bias, which provides a
powerful method to explain why bias occurs in pruned neural networks. Our code
is available at https://github.com/codestar12/pruning-distilation-bias
- Abstract(参考訳): 近年、AIのユビキタス展開は、アルゴリズムバイアス、差別、公平性に関する大きな懸念を提起している。
人間による従来の偏見や差別と比較すると、AIによって生成されるアルゴリズム的偏見はより抽象的で直観的であるため、説明や緩和は困難である。
プルーニングニューラルネットワークのバイアスの評価と緩和に関する現在の文献には明確なギャップがある。
本研究では,刈り取られたニューラルネットワークにおける誘導バイアスの評価,緩和,説明という課題に対処する。
私たちの論文には3つの貢献がある。
まず,複合誤差変動(CEV)とSDE(Symmetric Distance Error)の2つの簡易かつ効果的な指標を提案する。
第2に, 知識蒸留は, 不均衡なデータセットであっても, プルーニングニューラルネットワークにおいて誘導バイアスを軽減できることを示す。
第3に,モデル類似性はプルーニング誘発バイアスと強い相関を持ち,プルーニングニューラルネットワークにおいてバイアスが発生する理由を説明する強力な方法であることを明らかにした。
私たちのコードはhttps://github.com/codestar12/pruning-distilation-biasで利用可能です。
関連論文リスト
- Debiasify: Self-Distillation for Unsupervised Bias Mitigation [19.813054813868476]
単純性バイアスはニューラルネットワークにおいて重要な課題となり、しばしばモデルがより単純な解を好んで、急激な相関による決定規則を不注意に学習する。
バイアスの性質に関する事前の知識を必要としない新しい自己蒸留アプローチであるDebiasifyを紹介します。
提案手法は, 複雑で高精度な特徴を含む深い層から, より単純な特性条件を持つ浅層へと, ネットワーク内の知識を伝達するために, 新たな蒸留損失を生かしている。
論文 参考訳(メタデータ) (2024-11-01T16:25:05Z) - NeuFair: Neural Network Fairness Repair with Dropout [19.49034966552718]
本稿では,ディープニューラルネットワーク(DNN)における後処理バイアス緩和としてのニューロンのドロップアウトについて検討する。
ランダム化アルゴリズムの設計は, モデルの性能劣化を最小限に抑えつつ, 公平性(最大69%)を向上させるのに効果的であり, 効率的であることを示す。
論文 参考訳(メタデータ) (2024-07-05T05:45:34Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Bias in Pruned Vision Models: In-Depth Analysis and Countermeasures [93.17009514112702]
ニューラルネットワークのパラメータのかなりの部分集合をゼロに設定するプルーニングは、モデル圧縮の最も一般的な方法の1つである。
この現象の既存の証拠にもかかわらず、ニューラルネットワークのプルーニングと誘導バイアスの関係はよく理解されていない。
論文 参考訳(メタデータ) (2023-04-25T07:42:06Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Unsupervised Learning of Unbiased Visual Representations [10.871587311621974]
ディープニューラルネットワークは、データセットにバイアスが存在するときに堅牢な表現を学習できないことで知られている。
我々は3つのステップからなる完全に教師なしの脱バイアスフレームワークを提案する。
我々は、非バイアスモデルを得るために最先端の教師付き脱バイアス技術を採用している。
論文 参考訳(メタデータ) (2022-04-26T10:51:50Z) - Vulnerability Under Adversarial Machine Learning: Bias or Variance? [77.30759061082085]
本研究では,機械学習が訓練された深層ニューラルネットワークのバイアスと分散に与える影響について検討する。
我々の分析は、ディープニューラルネットワークが対向的摂動下で性能が劣っている理由に光を当てている。
本稿では,計算処理の複雑さをよく知られた機械学習手法よりも低く抑えた,新しい逆機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-01T00:58:54Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z) - Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning [61.93730166203915]
我々は、モデルが敵の攻撃に弱い場合、従来の公平性の概念では不十分であると主張する。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-17T22:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。