論文の概要: Listwise Learning to Rank with Deep Q-Networks
- arxiv url: http://arxiv.org/abs/2002.07651v1
- Date: Thu, 13 Feb 2020 22:45:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 13:59:34.894032
- Title: Listwise Learning to Rank with Deep Q-Networks
- Title(参考訳): 深いq-networksでランク付けするlistwise learning
- Authors: Abhishek Sharma
- Abstract要約: 我々は、q-learning to rank agentであるDeepQRankが、最先端と見なせるパフォーマンスを示すことを示した。
我々は、MicrosoftのLETORリストワイズデータセットに対してアルゴリズムを実行し、0.5075のNDCG@1を達成し、主要な教師付き学習モデルSVMRank(0.4958)をわずかに上回った。
- 参考スコア(独自算出の注目度): 3.9726605190181976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning to Rank is the problem involved with ranking a sequence of documents
based on their relevance to a given query. Deep Q-Learning has been shown to be
a useful method for training an agent in sequential decision making. In this
paper, we show that DeepQRank, our deep q-learning to rank agent, demonstrates
performance that can be considered state-of-the-art. Though less
computationally efficient than a supervised learning approach such as linear
regression, our agent has fewer limitations in terms of which format of data it
can use for training and evaluation. We run our algorithm against Microsoft's
LETOR listwise dataset and achieve an NDCG@1 (ranking accuracy in the range
[0,1]) of 0.5075, narrowly beating out the leading supervised learning model,
SVMRank (0.4958).
- Abstract(参考訳): ランクの学習は、与えられたクエリとの関連性に基づいて一連の文書をランク付けすることに関わる問題である。
ディープq学習は,シーケンシャルな意思決定においてエージェントを訓練するための有用な方法であることが示されている。
本稿では,q-learning to rank agentであるDeepQRankが,最先端技術と考えられる性能を示す。
線形回帰のような教師付き学習手法よりも計算効率は低いが、我々のエージェントはトレーニングや評価に利用できるデータの形式に関して制限が少ない。
我々は、MicrosoftのLETORリストワイズデータセットに対してアルゴリズムを実行し、0.5075のNDCG@1(精度 [0,1])を達成し、主要な教師付き学習モデルSVMRank (0.4958)をわずかに上回った。
関連論文リスト
- Zeroshot Listwise Learning to Rank Algorithm for Recommendation [5.694872363688119]
ランク付けの学習は、ディープニューラルネットワークのような他の技術と比較して珍しい技術である。
我々は、推薦アルゴリズムをランク付けするためにゼロショットリストワイズを設計する。
論文 参考訳(メタデータ) (2024-09-05T09:16:14Z) - Contextual Dual Learning Algorithm with Listwise Distillation for Unbiased Learning to Rank [26.69630281310365]
Unbiased Learning to Rank (ULTR)は、バイアスのないユーザのフィードバック(例えばクリック)を活用して、バイアスのないランキングモデルを最適化することを目的としている。
位置バイアスと文脈バイアスの両方に対処するため,CDLA-LD(Contextual Dual Learning Algorithm)を提案する。
論文 参考訳(メタデータ) (2024-08-19T09:13:52Z) - Rank-LIME: Local Model-Agnostic Feature Attribution for Learning to Rank [16.780058676633914]
Rank-LIMEは、モデルに依存しない局所的、ポストホック的特徴属性法である。
我々は,新しい相関に基づく摂動,微分可能なランキング損失関数を導入し,ランキングに基づく付加的特徴帰属モデルを評価するための新しい指標を導入する。
論文 参考訳(メタデータ) (2022-12-24T12:14:32Z) - RankDNN: Learning to Rank for Few-shot Learning [70.49494297554537]
本稿では、画像検索の関連性ランキングをバイナリランキング関係分類として活用する、新しい数ショット学習パイプラインを提案する。
これは、数ショットの学習に関する新しい視点を提供し、最先端の手法を補完する。
論文 参考訳(メタデータ) (2022-11-28T13:59:31Z) - Learning Rate Curriculum [75.98230528486401]
ラーニングレートカリキュラム(LeRaC)と呼ばれる新しいカリキュラム学習手法を提案する。
LeRaCは、ニューラルネットワークの各レイヤ毎に異なる学習率を使用して、最初のトレーニングエポックの間、データに依存しないカリキュラムを作成する。
Smoothing(CBS)によるCurriculum(Curriculum)との比較を行った。
論文 参考訳(メタデータ) (2022-05-18T18:57:36Z) - GNNRank: Learning Global Rankings from Pairwise Comparisons via Directed
Graph Neural Networks [68.61934077627085]
本稿では,グラフ埋め込みを学習可能なGNNと互換性のあるモデリングフレームワークであるGNNRankを紹介する。
既存の手法と比較して,我々の手法が競争力があり,しばしば優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-02-01T04:19:50Z) - MURAL: Meta-Learning Uncertainty-Aware Rewards for Outcome-Driven
Reinforcement Learning [65.52675802289775]
本研究では,不確かさを意識した分類器が,強化学習の難しさを解消できることを示す。
正規化最大度(NML)分布の計算法を提案する。
得られたアルゴリズムは、カウントベースの探索法と、報酬関数を学習するための先行アルゴリズムの両方に多くの興味深い関係を持つことを示す。
論文 参考訳(メタデータ) (2021-07-15T08:19:57Z) - PairRank: Online Pairwise Learning to Rank by Divide-and-Conquer [35.199462901346706]
オンラインモデルランキングのペアワイズ学習を推定することを提案する。
各ラウンドにおいて、候補文書を分割して、推定された対位順に対するモデルの信頼度に応じてランク付けする。
オンラインソリューションの理論的収束と期待されたランキングパフォーマンスを結びつける、誤った順序付けされたペアの数で直接定義された後悔が証明される。
論文 参考訳(メタデータ) (2021-02-28T01:16:55Z) - PiRank: Learning To Rank via Differentiable Sorting [85.28916333414145]
ランク付けのための新しい分類可能なサロゲートであるPiRankを提案する。
ピランクは所望の指標をゼロ温度の限界で正確に回収する。
論文 参考訳(メタデータ) (2020-12-12T05:07:36Z) - Rethinking Few-Shot Image Classification: a Good Embedding Is All You
Need? [72.00712736992618]
メタトレーニングセット上で教師付きあるいは自己教師型表現を学習する単純なベースラインが、最先端の数ショット学習方法より優れていることを示す。
追加の増量は自己蒸留によって達成できる。
我々は,この発見が,画像分類ベンチマークとメタ学習アルゴリズムの役割を再考する動機となっていると考えている。
論文 参考訳(メタデータ) (2020-03-25T17:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。