論文の概要: Robust Generalization and Safe Query-Specialization in Counterfactual
Learning to Rank
- arxiv url: http://arxiv.org/abs/2102.05990v1
- Date: Thu, 11 Feb 2021 13:17:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-12 14:04:01.342480
- Title: Robust Generalization and Safe Query-Specialization in Counterfactual
Learning to Rank
- Title(参考訳): 対実学習におけるロバストな一般化と安全なクエリ・スペシャライゼーション
- Authors: Harrie Oosterhuis and Maarten de Rijke
- Abstract要約: 本稿では,特徴量に基づく対実的学習手法であるgenSPECアルゴリズムについて紹介する。
以上の結果から,GENSPECは十分なクリックデータを持つクエリに対して,ほとんどあるいはノイズのないクエリに対してロバストな振る舞いを持ちながら,最適なパフォーマンスを実現することが示唆された。
- 参考スコア(独自算出の注目度): 62.28965622396868
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing work in counterfactual Learning to Rank (LTR) has focussed on
optimizing feature-based models that predict the optimal ranking based on
document features. LTR methods based on bandit algorithms often optimize
tabular models that memorize the optimal ranking per query. These types of
model have their own advantages and disadvantages. Feature-based models provide
very robust performance across many queries, including those previously unseen,
however, the available features often limit the rankings the model can predict.
In contrast, tabular models can converge on any possible ranking through
memorization. However, memorization is extremely prone to noise, which makes
tabular models reliable only when large numbers of user interactions are
available. Can we develop a robust counterfactual LTR method that pursues
memorization-based optimization whenever it is safe to do? We introduce the
Generalization and Specialization (GENSPEC) algorithm, a robust feature-based
counterfactual LTR method that pursues per-query memorization when it is safe
to do so. GENSPEC optimizes a single feature-based model for generalization:
robust performance across all queries, and many tabular models for
specialization: each optimized for high performance on a single query. GENSPEC
uses novel relative high-confidence bounds to choose which model to deploy per
query. By doing so, GENSPEC enjoys the high performance of successfully
specialized tabular models with the robustness of a generalized feature-based
model. Our results show that GENSPEC leads to optimal performance on queries
with sufficient click data, while having robust behavior on queries with little
or noisy data.
- Abstract(参考訳): 既存の対実学習ランキング(LTR)は、文書の特徴に基づいて最適なランキングを予測する特徴ベースモデルの最適化に重点を置いている。
バンディットアルゴリズムに基づくLTR法は、多くの場合、クエリ毎の最適なランキングを記憶する表モデルを最適化する。
これらのモデルには独自の利点とデメリットがある。
機能ベースのモデルは、以前は見えなかったものを含め、多くのクエリで非常に堅牢なパフォーマンスを提供するが、利用可能な機能は、モデルが予測できるランキングを制限することが多い。
対照的に、表モデルは記憶によって任意のランキングに収束することができる。
しかし、記憶はノイズに非常に近いため、多数のユーザインタラクションが利用可能である場合にのみ、表モデルが信頼できるものになる。
安全なときに記憶ベースの最適化を追求した堅牢な反実LTR法を開発できますか?
提案手法は,安全な場合,クエリ毎のメモリ化を追求する,ロバストな特徴ベースの対実的LTR手法であるgenSPECアルゴリズムを導入する。
GENSPECは、すべてのクエリにまたがる堅牢なパフォーマンス、および専門化のための多くの表形式のモデル:単一のクエリで高いパフォーマンスのために最適化された、単一の機能ベースのモデルを最適化する。
GENSPECは、クエリ毎にデプロイするモデルを選択するために、新しい相対的な高信頼境界を使用する。
これにより、GenSPECは、一般化された機能ベースのモデルの堅牢性で、成功した特殊タブラーモデルの高性能を享受します。
その結果,GENSPEC は十分なクリックデータを持つクエリのパフォーマンスを最適に保ちながら,ほとんどノイズのないクエリを堅牢に動作させることが示された。
関連論文リスト
- LLM-Select: Feature Selection with Large Language Models [64.5099482021597]
大規模言語モデル(LLM)は、データサイエンスの標準ツールに匹敵するパフォーマンスで、最も予測可能な機能を選択することができる。
以上の結果から,LSMはトレーニングに最適な機能を選択するだけでなく,そもそもどの機能を収集すべきかを判断する上でも有用である可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-02T22:23:40Z) - Optimized Feature Generation for Tabular Data via LLMs with Decision Tree Reasoning [53.241569810013836]
大規模言語モデル(LLM)と決定木推論(OCTree)に基づく新しいフレームワークを提案する。
私たちのキーとなるアイデアは、LLMの推論機能を活用して、手動で検索スペースを指定せずに優れた特徴生成ルールを見つけることです。
実験の結果、この単純なフレームワークは様々な予測モデルの性能を一貫して向上させることが示された。
論文 参考訳(メタデータ) (2024-06-12T08:31:34Z) - Large Language Models Can Automatically Engineer Features for Few-Shot Tabular Learning [35.03338699349037]
本稿では,機能エンジニアとして大規模言語モデルを用いる新しい文脈内学習フレームワークFeatLLMを提案する。
FeatLLMは高品質なルールを生成し、TabLLMやSTUNTなどよりも大幅に(平均で10%)優れている。
論文 参考訳(メタデータ) (2024-04-15T06:26:08Z) - Adaptive Neural Ranking Framework: Toward Maximized Business Goal for
Cascade Ranking Systems [33.46891569350896]
カスケードランキングは、オンライン広告とレコメンデーションシステムにおける大規模なトップk選択問題に広く使われている。
それまでの学習からランクへの取り組みは、モデルに完全な順序やトップクオーダを学習させることに重点を置いていた。
我々はこの手法をアダプティブ・ニューラルランキング・フレームワーク (Adaptive Neural Ranking Framework, ARF) と命名する。
論文 参考訳(メタデータ) (2023-10-16T14:43:02Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Efficient Data-specific Model Search for Collaborative Filtering [56.60519991956558]
協調フィルタリング(CF)はレコメンダシステムの基本的なアプローチである。
本稿では,機械学習(AutoML)の最近の進歩を動機として,データ固有のCFモデルを設計することを提案する。
ここでキーとなるのは、最先端(SOTA)のCFメソッドを統一し、それらを入力エンコーディング、埋め込み関数、インタラクション、予測関数の非結合ステージに分割する新しいフレームワークである。
論文 参考訳(メタデータ) (2021-06-14T14:30:32Z) - Analysis of Multivariate Scoring Functions for Automatic Unbiased
Learning to Rank [14.827143632277274]
ユーザのバイアスモデル(すなわち、確率モデル)とアンバイアスなランク付けを共同で学習するAutoULTRアルゴリズムは、性能が優れ、実際のデプロイコストが低いため、多くの注目を集めている。
近年の文脈認識型学習 to ランクモデルの進歩により,複数の文書をまとめて読み上げ,それらのランキングスコアを予測する多変量スコア関数が,人間関連ラベルを用いたランキングタスクにおいて,一変量ランキング関数よりも強力であることが示されている。
2つの大規模ベンチマークデータセットの合成クリック実験により、置換不変な多変量スコアリング機能を持つAutoULTRモデルの性能が著しく向上したことが示された。
論文 参考訳(メタデータ) (2020-08-20T16:31:59Z) - NASE: Learning Knowledge Graph Embedding for Link Prediction via Neural
Architecture Search [9.634626241415916]
リンク予測は、知識グラフ(KG)におけるエンティティ間の欠落した接続を予測するタスクである
これまでの研究では、Automated Machine Learning(AutoML)を使用して、データセットに最適なモデルを探していた。
リンク予測タスクのための新しいニューラルネットワーク探索(NAS)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-18T03:34:09Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。