論文の概要: Pretrained deep models outperform GBDTs in Learning-To-Rank under label
scarcity
- arxiv url: http://arxiv.org/abs/2308.00177v3
- Date: Tue, 27 Feb 2024 00:41:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 22:38:25.320613
- Title: Pretrained deep models outperform GBDTs in Learning-To-Rank under label
scarcity
- Title(参考訳): ラベル不足下でのラーニング・トゥ・ランドにおけるGBDTよりも優れた事前学習深度モデル
- Authors: Charlie Hou, Kiran Koshy Thekumparampil, Michael Shavlovsky, Giulia
Fanti, Yesh Dattatreya, Sujay Sanghavi
- Abstract要約: タブラルデータにはラベルなしデータが多く、ラベル付きデータが不足している。
DLローカは、教師なし事前学習を利用して、ラベルのないデータを活用できることが示される。
パブリックデータセットとプロプライエタリデータセットの両方を対象とした実験では、事前訓練されたDLランキングが、ランキングメトリクスでGBDTランキングを一貫して上回っていることを示す。
- 参考スコア(独自算出の注目度): 23.466336455644402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: On tabular data, a significant body of literature has shown that current deep
learning (DL) models perform at best similarly to Gradient Boosted Decision
Trees (GBDTs), while significantly underperforming them on outlier data. We
identify a natural tabular data setting where DL models can outperform GBDTs:
tabular Learning-to-Rank (LTR) under label scarcity. Tabular LTR applications,
including search and recommendation, often have an abundance of unlabeled data,
and scarce labeled data. We show that DL rankers can utilize unsupervised
pretraining to exploit this unlabeled data. In extensive experiments over both
public and proprietary datasets, we show that pretrained DL rankers
consistently outperform GBDT rankers on ranking metrics -- sometimes by as much
as $38\%$ -- both overall and on outliers.
- Abstract(参考訳): 表データでは、現在のディープラーニング(dl)モデルが勾配強化決定木(gbdts)とよく似ているが、外れ値データでは著しくパフォーマンスが低下していることが、多くの文献から示されている。
ラベル不足下では,GBDTよりもDLモデルの方が優れた自然な表付きデータセットを同定する。
検索やレコメンデーションを含むタブラルLTRアプリケーションは、ラベルなしデータが多く、ラベル付きデータが少ないことが多い。
dlランカは教師なし事前学習を利用してラベルなしのデータを利用することができる。
パブリックデータセットとプロプライエタリデータセットの両方に関する広範な実験では、事前トレーニング済みのDLローダが、ランキングのメトリクスでGBDTローダよりも一貫して優れています。
関連論文リスト
- Learning with Less: Knowledge Distillation from Large Language Models via Unlabeled Data [54.934578742209716]
現実世界のNLPアプリケーションでは、Large Language Models (LLMs) は巨大なデータセットの広範なトレーニングのために、有望なソリューションを提供する。
LLKDは、教師と学生の両方の信号を組み込んだ適応的なサンプル選択法である。
総合的な実験により,LLKDは高いデータ効率で,様々なデータセットで優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-11-12T18:57:59Z) - FlatMatch: Bridging Labeled Data and Unlabeled Data with Cross-Sharpness
for Semi-Supervised Learning [73.13448439554497]
Semi-Supervised Learning (SSL) は、ラベル付きデータが極めて少ない豊富なラベル付きデータを活用する効果的な方法である。
ほとんどのSSLメソッドは、通常、異なるデータ変換間のインスタンス単位の一貫性に基づいている。
本研究では,2つのデータセット間の一貫した学習性能を確保するために,クロスシャープネス尺度を最小化するFlatMatchを提案する。
論文 参考訳(メタデータ) (2023-10-25T06:57:59Z) - TabR: Tabular Deep Learning Meets Nearest Neighbors in 2023 [33.70333110327871]
TabR -- 基本的には、中央にカスタムk-Nearest-Neighborsのようなコンポーネントを備えたフィードフォワードネットワークを提供します。
数百万オブジェクトまでのデータセットを持つ公開ベンチマークセットでは、TabRが最高の平均パフォーマンスを示している。
はるかに高いパフォーマンスに加えて、TabRはシンプルで、はるかに効率的です。
論文 参考訳(メタデータ) (2023-07-26T17:58:07Z) - When Do Neural Nets Outperform Boosted Trees on Tabular Data? [65.30290020731825]
私たちは一歩後退して、'NN vs. GBDT'議論の重要性に疑問を投げかけます。
驚くほど多くのデータセットに対して、GBDTとNNのパフォーマンスの違いは無視できる。
我々は、データセットのどの特性がNNやGBDTを適切に動作させるために適しているかを決定するために、数十のメタ機能を分析します。
私たちの洞察は、実践者がデータセット上で最もうまく機能するテクニックを決定するためのガイドとして機能します。
論文 参考訳(メタデータ) (2023-05-04T17:04:41Z) - Is margin all you need? An extensive empirical study of active learning
on tabular data [66.18464006872345]
我々は,OpenML-CC18ベンチマークを用いて,69の実世界のデータセット上での各種能動学習アルゴリズムの性能を解析した。
意外なことに、古典的なマージンサンプリング技術は、現在の最先端技術を含む、他のすべてのものよりも優れている。
論文 参考訳(メタデータ) (2022-10-07T21:18:24Z) - Muddling Label Regularization: Deep Learning for Tabular Datasets [0.0]
標準FFNNをトレーニングするための新しいエンドツーエンドの差別化手法を提案する。
textttMLRは、古典的なNNとゴールドスタンダードより優れています。
textttMLRは、既製のDLソリューションとして使用したり、最も高度なMLパイプラインに統合することができる。
論文 参考訳(メタデータ) (2021-06-08T15:44:02Z) - Self-Tuning for Data-Efficient Deep Learning [75.34320911480008]
セルフチューニングは、データ効率のよいディープラーニングを可能にする新しいアプローチである。
ラベル付きおよびラベルなしデータの探索と事前訓練されたモデルの転送を統一する。
SSLとTLの5つのタスクをシャープなマージンで上回ります。
論文 参考訳(メタデータ) (2021-02-25T14:56:19Z) - Meta-Learning for Neural Relation Classification with Distant
Supervision [38.755055486296435]
本稿では,参照データの指導の下で,雑音の多い学習データを重み付けするメタラーニング手法を提案する。
いくつかのデータセットの実験では、参照データがトレーニングデータの選択を効果的にガイドできることが示されている。
論文 参考訳(メタデータ) (2020-10-26T12:52:28Z) - Temporal Calibrated Regularization for Robust Noisy Label Learning [60.90967240168525]
ディープニューラルネットワーク(DNN)は、大規模な注釈付きデータセットの助けを借りて、多くのタスクで大きな成功を収めている。
しかし、大規模なデータのラベル付けは非常にコストがかかりエラーが発生しやすいため、アノテーションの品質を保証することは困難である。
本稿では,従来のラベルと予測を併用したTCR(Temporal Calibrated Regularization)を提案する。
論文 参考訳(メタデータ) (2020-07-01T04:48:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。