論文の概要: Online Learning of Optimally Diverse Rankings
- arxiv url: http://arxiv.org/abs/2109.05899v1
- Date: Mon, 13 Sep 2021 12:13:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:55:59.559350
- Title: Online Learning of Optimally Diverse Rankings
- Title(参考訳): 最適横ランキングのオンライン学習
- Authors: Stefan Magureanu, Alexandre Proutiere, Marcus Isaksson, Boxun Zhang
- Abstract要約: ユーザのフィードバックのみに基づいて最適なリストを効率よく学習するアルゴリズムを提案する。
我々は、$T$クエリの後に、LDRの後悔は$O((N-L)log(T))$としてスケールする。
- 参考スコア(独自算出の注目度): 63.62764375279861
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Search engines answer users' queries by listing relevant items (e.g.
documents, songs, products, web pages, ...). These engines rely on algorithms
that learn to rank items so as to present an ordered list maximizing the
probability that it contains relevant item. The main challenge in the design of
learning-to-rank algorithms stems from the fact that queries often have
different meanings for different users. In absence of any contextual
information about the query, one often has to adhere to the {\it diversity}
principle, i.e., to return a list covering the various possible topics or
meanings of the query. To formalize this learning-to-rank problem, we propose a
natural model where (i) items are categorized into topics, (ii) users find
items relevant only if they match the topic of their query, and (iii) the
engine is not aware of the topic of an arriving query, nor of the frequency at
which queries related to various topics arrive, nor of the topic-dependent
click-through-rates of the items. For this problem, we devise LDR (Learning
Diverse Rankings), an algorithm that efficiently learns the optimal list based
on users' feedback only. We show that after $T$ queries, the regret of LDR
scales as $O((N-L)\log(T))$ where $N$ is the number of all items. We further
establish that this scaling cannot be improved, i.e., LDR is order optimal.
Finally, using numerical experiments on both artificial and real-world data, we
illustrate the superiority of LDR compared to existing learning-to-rank
algorithms.
- Abstract(参考訳): 検索エンジンは関連する項目(文書、歌、製品、ウェブページ、...)をリストアップすることでユーザーの質問に答える。
これらのエンジンは、関連する項目を含む確率を最大化する順序リストを表示するためにアイテムのランク付けを学ぶアルゴリズムに依存している。
ランク付けアルゴリズムの設計における大きな課題は,クエリがユーザによって異なる意味を持つことが多い点にある。
クエリに関する文脈的な情報がない場合、クエリの様々なトピックや意味をカバーしたリストを返すために、しばしば {\it diversity} の原則に従わなければならない。
この学習からランクへの問題を形式化するために,我々は自然モデルを提案する。
(i)項目を話題に分類する。
(ii)ユーザは、クエリのトピックと一致する場合に限り、関連する項目を見つけ、
(iii)エンジンは、到着したクエリのトピックや、さまざまなトピックに関連するクエリが到着する頻度、あるいはアイテムのトピック依存クリックスルーレートを意識していない。
そこで我々は,ユーザのフィードバックのみに基づいて最適なリストを効率よく学習するアルゴリズムであるLDR(Learning Diverse Rankings)を考案した。
我々は、$T$クエリの後に、LDRの後悔は$O((N-L)\log(T))$としてスケールする。
さらに、このスケーリングは改善できないこと、すなわちLDRが最適であることを示す。
最後に,実世界の人工データと実データの両方における数値実験を用いて,ldrが既存の学習からランクへのアルゴリズムよりも優れていることを示す。
関連論文リスト
- Large Language Models for Relevance Judgment in Product Search [48.56992980315751]
検索クエリに対する検索および再ランクされたアイテムの高い関連性は、製品検索の成功の土台である。
本稿では,大規模言語モデル(LLM)を活用して,クエリ・イテムペア(QIP)の関連判断を大規模に自動化する手法について述べる。
本研究は,製品検索における関連判断の自動化の分野への直接的な影響を示唆するものである。
論文 参考訳(メタデータ) (2024-06-01T00:52:41Z) - LIST: Learning to Index Spatio-Textual Data for Embedding based Spatial Keyword Queries [53.843367588870585]
リスト K-kNN 空間キーワードクエリ (TkQ) は、空間的およびテキスト的関連性の両方を考慮したランキング関数に基づくオブジェクトのリストを返す。
効率的かつ効率的な指標、すなわち高品質なラベルの欠如とバランスの取れない結果を構築する上で、大きな課題が2つある。
この2つの課題に対処する新しい擬似ラベル生成手法を開発した。
論文 参考訳(メタデータ) (2024-03-12T05:32:33Z) - Hypergraph Enhanced Knowledge Tree Prompt Learning for Next-Basket
Recommendation [50.55786122323965]
次バスケットレコメンデーション(NBR)は、対応するバスケットシーケンスが与えられた次のバスケット内のアイテムを推論することを目的としている。
HEKP4NBRは知識グラフ(KG)をKTP(Knowledge Tree Prompt)と呼ばれるプロンプトに変換し、PLMがOOV(Out-Of-Vocabulary)アイテムIDをエンコードするのを助ける。
ハイパーグラフ畳み込みモジュールは、複数の側面からMoEモデルによって測定されたアイテム類似性に基づいてハイパーグラフを構築するように設計されている。
論文 参考訳(メタデータ) (2023-12-26T02:12:21Z) - Replace Scoring with Arrangement: A Contextual Set-to-Arrangement
Framework for Learning-to-Rank [40.81502990315285]
ラーニング・トゥ・ランク(Learning-to-rank)は、トップNレコメンデーションタスクの中核的なテクニックであり、理想的なランク付けはアイテムからアレンジへのマッピングである。
既存のソリューションのほとんどは確率的ランキング原理(PRP)のパラダイムに該当する。すなわち、まず候補セットで各項目をスコアし、次にソート操作を行い、トップランキングリストを生成する。
本稿では,個別のスコアリングやソートを必要とせずに,候補項目の順列を直接生成する新しいフレームワークであるSet-To-Arrangement Ranking (STARank)を提案する。
論文 参考訳(メタデータ) (2023-08-05T12:22:26Z) - RankFormer: Listwise Learning-to-Rank Using Listwide Labels [2.9005223064604078]
本稿では,新しいリストワイド評価目標と従来型のリストワイド評価目標を共同で最適化できるアーキテクチャとしてRangeFormerを提案する。
Amazon Searchのデータでeコマースの実験を行い、RangeFormerがオフラインのすべてのベースラインより優れていることを見つけました。
論文 参考訳(メタデータ) (2023-06-09T10:47:06Z) - Zero-Shot Listwise Document Reranking with a Large Language Model [58.64141622176841]
本稿では,タスク固有の学習データを用いることなく,言語モデル(LRL)を用いたリスワイズ・リランカを提案する。
3つのTRECウェブサーチデータセットの実験により、LRLは第1段検索結果の再ランク付け時にゼロショットポイントワイズ法より優れるだけでなく、最終段再ランカとしても機能することが示された。
論文 参考訳(メタデータ) (2023-05-03T14:45:34Z) - Efficient and Accurate Top-$K$ Recovery from Choice Data [1.14219428942199]
レコメンデーションシステムのようないくつかのアプリケーションでは、統計学者は主に大量のアイテムから上位のアイテムの集合を回収することに興味がある。
そこで本稿では,K$-recoveryの高速かつ高精度なランキングアルゴリズムとして,選択に基づくボルダカウントアルゴリズムを提案する。
選択に基づくボルダカウントアルゴリズムは,多種多様なランダム効用モデルの下で,上位$Kの回収に最適なサンプル複雑性を有することを示す。
論文 参考訳(メタデータ) (2022-06-23T22:05:08Z) - Query Rewriting via Cycle-Consistent Translation for E-Commerce Search [13.723266150864037]
本稿では,新しいディープニューラルネットワークによる問合せ書き換え手法を提案する。
繰り返し機械翻訳問題にクエリ書き換えを定式化します。
最新の機械翻訳モデルと連動した、新しいサイクル整合性トレーニングアルゴリズムを紹介します。
論文 参考訳(メタデータ) (2021-03-01T06:47:12Z) - Surprise: Result List Truncation via Extreme Value Theory [92.5817701697342]
そこで本研究では,問合せ時における可逆的・校正的関連度スコアを,ランク付けされたスコアに留まらず,統計的に生成する手法を提案する。
本稿では、画像、テキスト、IRデータセット間での結果リストのトランケーションタスクにおいて、その効果を実証する。
論文 参考訳(メタデータ) (2020-10-19T19:15:50Z) - Learning to Rank under Multinomial Logit Choice [6.929312022493406]
コンテンツの最適順序付けを学ぶことは、ウェブサイト設計において重要な課題である。
本稿では,この問題に対する$Omega(sqrtJT)$lowbound,$tildeO(sqrtJT)$ upperbound on the regret of the UCBアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-07T16:15:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。