論文の概要: Debias the Black-box: A Fair Ranking Framework via Knowledge
Distillation
- arxiv url: http://arxiv.org/abs/2208.11628v1
- Date: Wed, 24 Aug 2022 15:59:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-25 13:37:43.402726
- Title: Debias the Black-box: A Fair Ranking Framework via Knowledge
Distillation
- Title(参考訳): Debias the Black-box:知識蒸留による公正ランキングフレームワーク
- Authors: Zhitao Zhu, Shijing Si, Jianzong Wang, Yaodong Yang, Jing Xiao
- Abstract要約: 本稿では,知識蒸留に基づく公正な情報検索フレームワークを提案する。
このフレームワークは、モデルサイズを著しく減少させながら、モデルの露出ベースの公正性を改善することができる。
また、高いレコメンデーション効率を維持しながら、フェアネスのパフォーマンスを15%46%向上させる。
- 参考スコア(独自算出の注目度): 26.60241524303918
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks can capture the intricate interaction history
information between queries and documents, because of their many complicated
nonlinear units, allowing them to provide correct search recommendations.
However, service providers frequently face more complex obstacles in real-world
circumstances, such as deployment cost constraints and fairness requirements.
Knowledge distillation, which transfers the knowledge of a well-trained complex
model (teacher) to a simple model (student), has been proposed to alleviate the
former concern, but the best current distillation methods focus only on how to
make the student model imitate the predictions of the teacher model. To better
facilitate the application of deep models, we propose a fair information
retrieval framework based on knowledge distillation. This framework can improve
the exposure-based fairness of models while considerably decreasing model size.
Our extensive experiments on three huge datasets show that our proposed
framework can reduce the model size to a minimum of 1% of its original size
while maintaining its black-box state. It also improves fairness performance by
15%~46% while keeping a high level of recommendation effectiveness.
- Abstract(参考訳): ディープニューラルネットワークは、クエリとドキュメント間の複雑なインタラクション履歴情報をキャプチャすることができる。
しかしながら、サービスプロバイダは、デプロイコストの制約や公平性要件など、現実の状況において、より複雑な障害に直面します。
十分に訓練された複素モデル(教師)の知識を単純なモデル(学生)に移す知識蒸留は、前者の懸念を緩和するために提案されているが、現在の最良の蒸留方法は、生徒モデルを教師モデルの予測を模倣させる方法のみに焦点を当てている。
深層モデルの適用を容易にするため,我々は知識蒸留に基づく公平な情報検索フレームワークを提案する。
このフレームワークは、モデルサイズを大幅に削減しながら、モデルの露出ベースの公正性を改善することができる。
3つの巨大なデータセットに関する広範な実験から,提案するフレームワークでは,ブラックボックス状態を維持しながら,モデルサイズを最小1%まで削減することが可能であることが判明した。
また、高いレコメンデーション効率を維持しながら、フェアネスのパフォーマンスを15%から46%向上させる。
関連論文リスト
- On the Surprising Efficacy of Distillation as an Alternative to Pre-Training Small Models [7.062887337934677]
我々は、小モデルがその利点を享受するために事前学習のコストを吸収する必要がないことを提案する。
事前訓練されたモデルからタスクを蒸留すると、そのタスクで事前訓練されたり微調整されたりした場合、小さなモデルで達成される性能を達成または超えることが観察された。
論文 参考訳(メタデータ) (2024-04-04T07:38:11Z) - Knowledge Distillation for Road Detection based on cross-model Semi-Supervised Learning [17.690698736544626]
本稿では,知識蒸留と半教師付き学習手法を組み合わせた統合的アプローチを提案する。
このハイブリッドアプローチは、大規模モデルのロバストな機能を活用して、大規模な未ラベルデータを効果的に活用する。
半教師付き学習に基づく知識蒸留(SSLKD)アプローチは,学生モデルの性能向上を示す。
論文 参考訳(メタデータ) (2024-02-07T22:50:47Z) - Efficient Knowledge Distillation from Model Checkpoints [36.329429655242535]
同じ訓練軌道から複数の中間モデルの弱いスナップショットアンサンブルは、独立に訓練された完全収束モデルの強いアンサンブルより優れていることを示す。
本稿では,タスク関連相互情報の最大化に基づく最適中間教師選択アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-12T17:55:30Z) - Curriculum Learning for Dense Retrieval Distillation [20.25741148622744]
CL-DRDと呼ばれる総合的なカリキュラム学習に基づく最適化フレームワークを提案する。
CL-DRDは、リグレード(教師)モデルによって生成されたトレーニングデータの難易度を制御する。
3つのパブリックパス検索データセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-04-28T17:42:21Z) - When in Doubt, Summon the Titans: Efficient Inference with Large Models [80.2673230098021]
本稿では,大規模モデルのモデル化の利点を実現する蒸留に基づく2段階の枠組みを提案する。
簡単な"例のサブセットでのみ正確な予測を行うために、私たちは、大きな教師モデルを使用して、軽量な学生モデルをガイドします。
提案した蒸留法は, 簡単な事例のみを扱うため, 学生規模でより積極的なトレードオフが可能であり, 推論の償却コストを低減できる。
論文 参考訳(メタデータ) (2021-10-19T22:56:49Z) - Exploring Strategies for Generalizable Commonsense Reasoning with
Pre-trained Models [62.28551903638434]
モデルの一般化と精度に及ぼす3つの異なる適応法の影響を計測する。
2つのモデルを用いた実験では、微調整はタスクの内容と構造の両方を学習することで最もうまく機能するが、過度に適合し、新しい答えへの限定的な一般化に苦しむ。
我々は、プレフィックスチューニングのような代替適応手法が同等の精度を持つのを観察するが、解を見落とさずに一般化し、対数分割に対してより堅牢である。
論文 参考訳(メタデータ) (2021-09-07T03:13:06Z) - Knowledge distillation: A good teacher is patient and consistent [71.14922743774864]
最先端のパフォーマンスを実現する大規模モデルと、実用的な用途で手頃な価格のモデルとの間には、コンピュータビジョンの相違が増えている。
蒸留の有効性に大きな影響を及ぼす可能性のある,特定の暗黙的な設計選択を同定する。
ImageNetの最先端ResNet-50モデルが82.8%の精度で実現されている。
論文 参考訳(メタデータ) (2021-06-09T17:20:40Z) - Self-Feature Regularization: Self-Feature Distillation Without Teacher
Models [0.0]
浅層層における機能学習を監督するために深層の特徴を用いるセルフフィーチャー正規化(sfr)を提案する。
まず,局所的な特徴にマッチする一般化l2損失と,チャネル次元においてより集中的に蒸留する多対一の手法を用いる。
論文 参考訳(メタデータ) (2021-03-12T15:29:00Z) - MixKD: Towards Efficient Distillation of Large-scale Language Models [129.73786264834894]
データに依存しない蒸留フレームワークであるMixKDを提案する。
妥当な条件下では、MixKDは誤差と経験的誤差の間のギャップを小さくする。
限定的なデータ設定とアブレーションによる実験は、提案手法の利点をさらに証明している。
論文 参考訳(メタデータ) (2020-11-01T18:47:51Z) - Distilling Object Detectors with Task Adaptive Regularization [97.52935611385179]
現在の最先端のオブジェクト検出器は高い計算コストを犠牲にしており、ローエンドデバイスへのデプロイが困難である。
より大規模な教師モデルから知識を伝達することで、より小さな学生ネットワークを訓練することを目的とした知識蒸留は、モデル小型化のための有望な解決策の1つである。
論文 参考訳(メタデータ) (2020-06-23T15:58:22Z) - Neural Networks Are More Productive Teachers Than Human Raters: Active
Mixup for Data-Efficient Knowledge Distillation from a Blackbox Model [57.41841346459995]
我々は,ブラックボックス教師モデルから知識を抽出し,学生の深層ニューラルネットワークを視覚認識のために訓練する方法を,データ効率のよい方法で研究する。
混合学習とアクティブラーニングを融合した手法を提案する。
論文 参考訳(メタデータ) (2020-03-31T05:44:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。