論文の概要: Debiased Distillation by Transplanting the Last Layer
- arxiv url: http://arxiv.org/abs/2302.11187v1
- Date: Wed, 22 Feb 2023 07:41:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 16:10:17.082575
- Title: Debiased Distillation by Transplanting the Last Layer
- Title(参考訳): 最終層移植による脱バイアス蒸留
- Authors: Jiwoon Lee, Jaeho Lee
- Abstract要約: ディープモデルは、後処理のときでさえ、急激な相関を学習することに影響を受けやすい。
DeTT(Debiasing by Teacher Transplanting)という簡単な知識蒸留アルゴリズムを提案する。
DeTTは学生モデルを脱臭し、最悪のグループ精度で一貫してベースラインを上回ります。
- 参考スコア(独自算出の注目度): 14.861216810146114
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep models are susceptible to learning spurious correlations, even during
the post-processing. We take a closer look at the knowledge distillation -- a
popular post-processing technique for model compression -- and find that
distilling with biased training data gives rise to a biased student, even when
the teacher is debiased. To address this issue, we propose a simple knowledge
distillation algorithm, coined DeTT (Debiasing by Teacher Transplanting).
Inspired by a recent observation that the last neural net layer plays an
overwhelmingly important role in debiasing, DeTT directly transplants the
teacher's last layer to the student. Remaining layers are distilled by matching
the feature map outputs of the student and the teacher, where the samples are
reweighted to mitigate the dataset bias. Importantly, DeTT does not rely on the
availability of extensive annotations on the bias-related attribute, which is
typically not available during the post-processing phase. Throughout our
experiments, DeTT successfully debiases the student model, consistently
outperforming the baselines in terms of the worst-group accuracy.
- Abstract(参考訳): 深いモデルは、処理後でさえも、スプリアス相関の学習に影響を受けやすい。
モデル圧縮のための一般的な後処理技術である知識蒸留を詳しく調べると、教師が嫌がらせを受けたとしても、バイアス付きトレーニングデータによる蒸留が偏見のある学生を生んでいることが分かる。
そこで本研究では,DeTT(Debiasing by Teacher Transplanting)という簡単な知識蒸留アルゴリズムを提案する。
DeTTは、最後の神経網層が脱バイアスにおいて圧倒的に重要な役割を果たすという最近の観察に触発され、教師の最後の層を直接生徒に移植する。
残層は、学生と教師のフィーチャーマップ出力にマッチして蒸留され、サンプルはデータセットバイアスを軽減するために重み付けされる。
重要なことに、dettはバイアス関連属性の広範なアノテーションが利用可能であることには依存していない。
我々の実験を通して、DeTTは学生モデルを脱臭し、最悪のグループ精度で一貫してベースラインを上回ります。
関連論文リスト
- Distilling Long-tailed Datasets [13.330572317331198]
本稿では,Long-tailed dataset Aware distillation (LAD) を新たに提案する。
LADは、学生と偏見のある専門家の軌跡の間の距離を減らし、テールクラスの偏見が合成データセットに蒸留されるのを防ぐ。
この研究は長い尾のデータセット蒸留(LTDD)の分野を開拓し、長い尾のデータセットを蒸留する最初の効果的な取り組みとなった。
論文 参考訳(メタデータ) (2024-08-24T15:36:36Z) - Model Debiasing by Learnable Data Augmentation [19.625915578646758]
本稿では,トレーニングを正規化可能なデータ拡張戦略を備えた,新しい2段階学習パイプラインを提案する。
合成および現実的なバイアス付きデータセットの実験は、最先端の分類精度を示し、競合する手法より優れている。
論文 参考訳(メタデータ) (2024-08-09T09:19:59Z) - Using Early Readouts to Mediate Featural Bias in Distillation [30.5299408494168]
ディープネットワークは、現実世界の教師付き学習タスクにおいて、突発的な特徴ラベル相関を学習する傾向がある。
本稿では,従来のネットワーク層からの表現を用いてラベルを予測しようとする新しい早期読み出し機構を提案する。
論文 参考訳(メタデータ) (2023-10-28T04:58:15Z) - Feature-Level Debiased Natural Language Understanding [86.8751772146264]
既存の自然言語理解(NLU)モデルは、特定のデータセットで高いパフォーマンスを達成するために、データセットバイアスに依存することが多い。
本稿では, バイアスの潜在特性を緩和し, バイアスの動的性質を無視するために, DCT(Debiasing contrastive learning)を提案する。
DCTは、ディストリビューション内のパフォーマンスを維持しながら、アウトオブディストリビューションデータセットの最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-11T06:16:14Z) - Unbiased Knowledge Distillation for Recommendation [66.82575287129728]
知識蒸留(KD)は推論遅延を低減するためにレコメンダシステム(RS)に応用されている。
従来のソリューションは、まずトレーニングデータから完全な教師モデルを訓練し、その後、その知識を変換して、コンパクトな学生モデルの学習を監督する。
このような標準的な蒸留パラダイムは深刻なバイアス問題を引き起こし、蒸留後に人気アイテムがより強く推奨されることになる。
論文 参考訳(メタデータ) (2022-11-27T05:14:03Z) - Unsupervised Learning of Unbiased Visual Representations [10.871587311621974]
ディープニューラルネットワークは、データセットにバイアスが存在するときに堅牢な表現を学習できないことで知られている。
我々は3つのステップからなる完全に教師なしの脱バイアスフレームワークを提案する。
我々は、非バイアスモデルを得るために最先端の教師付き脱バイアス技術を採用している。
論文 参考訳(メタデータ) (2022-04-26T10:51:50Z) - Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification [57.53567756716656]
本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
論文 参考訳(メタデータ) (2022-03-18T11:02:18Z) - Relieving Long-tailed Instance Segmentation via Pairwise Class Balance [85.53585498649252]
長い尾のインスタンスセグメンテーションは、クラス間のトレーニングサンプルの極端な不均衡のために難しいタスクである。
尾のついたものに対して、(大多数のサンプルを含む)ヘッドクラスの深刻なバイアスを引き起こす。
そこで本研究では,学習中の予測嗜好を蓄積するために,学習中に更新される混乱行列上に構築された新しいPairwise Class Balance(PCB)手法を提案する。
論文 参考訳(メタデータ) (2022-01-08T07:48:36Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。