論文の概要: The Fairness Stitch: Unveiling the Potential of Model Stitching in
Neural Network De-Biasing
- arxiv url: http://arxiv.org/abs/2311.03532v1
- Date: Mon, 6 Nov 2023 21:14:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 17:54:04.613218
- Title: The Fairness Stitch: Unveiling the Potential of Model Stitching in
Neural Network De-Biasing
- Title(参考訳): フェアネス・スティッチ:ニューラルネットワーク・デバイアスにおけるモデル・スティッチの可能性
- Authors: Modar Sulaiman and Kallol Roy
- Abstract要約: 本研究では,深層学習モデルの公平性を高めるために,"The Fairness Stitch"と呼ばれる新しい手法を提案する。
我々はCelebAとUTKFaceの2つのよく知られたデータセットを総合的に評価する。
フェアネスとパフォーマンスのバランスの取れたトレードオフを達成する上で, 顕著な改善がみられた。
- 参考スコア(独自算出の注目度): 0.043512163406552
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The pursuit of fairness in machine learning models has emerged as a critical
research challenge in different applications ranging from bank loan approval to
face detection. Despite the widespread adoption of artificial intelligence
algorithms across various domains, concerns persist regarding the presence of
biases and discrimination within these models. To address this pressing issue,
this study introduces a novel method called "The Fairness Stitch (TFS)" to
enhance fairness in deep learning models. This method combines model stitching
and training jointly, while incorporating fairness constraints. In this
research, we assess the effectiveness of our proposed method by conducting a
comprehensive evaluation of two well-known datasets, CelebA and UTKFace. We
systematically compare the performance of our approach with the existing
baseline method. Our findings reveal a notable improvement in achieving a
balanced trade-off between fairness and performance, highlighting the promising
potential of our method to address bias-related challenges and foster equitable
outcomes in machine learning models. This paper poses a challenge to the
conventional wisdom of the effectiveness of the last layer in deep learning
models for de-biasing.
- Abstract(参考訳): 機械学習モデルにおける公正性の追求は、銀行ローン承認から顔検出まで、さまざまなアプリケーションにおいて重要な研究課題となっている。
さまざまな領域で人工知能アルゴリズムが広く採用されているにもかかわらず、これらのモデルにおけるバイアスや差別の存在に関する懸念は続いている。
そこで本研究では, 深層学習モデルの公平性を高めるために, TFS(The Fairness Stitch)と呼ばれる新しい手法を提案する。
フェアネス制約を取り入れつつ、モデルステッチとトレーニングを共同で組み合わせる方法。
本研究では, celeba と utkface の2つの既知のデータセットの包括的評価を行い, 提案手法の有効性を評価した。
提案手法を既存のベースライン手法と体系的に比較する。
この結果から,公平性と性能のバランスの取れたトレードオフを実現する上での顕著な改善が明らかとなり,バイアス問題に対処し,機械学習モデルにおける等価な結果の育成に本手法が期待できる可能性を強調した。
本稿では,De-biasingの深層学習モデルにおける最終層の有効性の従来の知恵に挑戦する。
関連論文リスト
- Self-Improving Interference Management Based on Deep Learning With
Uncertainty Quantification [10.403513606082067]
本稿では,無線通信に適した自己改善型干渉管理フレームワークを提案する。
提案手法は,従来の最適化アルゴリズムに固有の計算課題に対処する。
私たちのフレームワークのブレークスルーは、データ駆動モデルに固有の制限を認識することです。
論文 参考訳(メタデータ) (2024-01-24T03:28:48Z) - Learning Objective-Specific Active Learning Strategies with Attentive
Neural Processes [72.75421975804132]
学び アクティブラーニング(LAL)は、アクティブラーニング戦略自体を学ぶことを提案し、与えられた設定に適応できるようにする。
能動学習問題の対称性と独立性を利用した新しい分類法を提案する。
私たちのアプローチは、筋電図から学ぶことに基づいており、モデルに標準ではない目的に適応する能力を与えます。
論文 参考訳(メタデータ) (2023-09-11T14:16:37Z) - Should We Attend More or Less? Modulating Attention for Fairness [11.249410336982258]
社会的バイアスの伝播において,現在最先端のNLPモデルにおいて広く用いられている手法である注意の役割について検討する。
トレーニング後のモデルフェアネスを改善するために,注目度を変調する新しい手法を提案する。
本結果から,テキスト分類や生成タスクにおいて,公平性の増加と性能損失の最小化が示唆された。
論文 参考訳(メタデータ) (2023-05-22T14:54:21Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Fairness Increases Adversarial Vulnerability [50.90773979394264]
フェアネスとロバストネスの間に二分法が存在することを示し、フェアネスを達成するとモデルロバストネスを減少させる。
非線形モデルと異なるアーキテクチャの実験は、複数の視覚領域における理論的発見を検証する。
フェアネスとロバストネスの良好なトレードオフを達成するためのモデルを構築するための,シンプルで効果的なソリューションを提案する。
論文 参考訳(メタデータ) (2022-11-21T19:55:35Z) - Learning Diversified Feature Representations for Facial Expression
Recognition in the Wild [97.14064057840089]
本稿では,CNN層が抽出した顔表情認識アーキテクチャの特徴を多様化する機構を提案する。
AffectNet,FER+,RAF-DBの3つの顔表情認識実験の結果,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-10-17T19:25:28Z) - Improving Sample Efficiency of Deep Learning Models in Electricity
Market [0.41998444721319217]
我々は,サンプルの効率を向上させるため,知識強化トレーニング(KAT)という一般的なフレームワークを提案する。
本稿では,いくつかの合成データを生成する新しいデータ拡張手法を提案する。
現代の学習理論は, 効果的な予測誤差フィードバック, 信頼損失関数, リッチ勾配雑音の観点から, 提案手法の有効性を実証している。
論文 参考訳(メタデータ) (2022-10-11T16:35:13Z) - Learnability of Competitive Threshold Models [11.005966612053262]
理論的観点から,競合しきい値モデルの学習可能性について検討する。
ニューラルネットワークによって競合しきい値モデルをシームレスにシミュレートする方法を実証する。
論文 参考訳(メタデータ) (2022-05-08T01:11:51Z) - On Modality Bias Recognition and Reduction [70.69194431713825]
マルチモーダル分類の文脈におけるモダリティバイアス問題について検討する。
本稿では,各ラベルの特徴空間を適応的に学習するプラグアンドプレイ損失関数法を提案する。
本手法は, ベースラインに比べ, 顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2022-02-25T13:47:09Z) - Modeling Techniques for Machine Learning Fairness: A Survey [17.925809181329015]
近年,機械学習モデルのバイアスを軽減するため,様々な手法が開発されている。
本稿では,プロセス内バイアス軽減技術の現状を概観する。
論文 参考訳(メタデータ) (2021-11-04T17:17:26Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。