論文の概要: Beyond Pairwise Learning-To-Rank At Airbnb
- arxiv url: http://arxiv.org/abs/2505.09795v2
- Date: Mon, 19 May 2025 17:37:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.663617
- Title: Beyond Pairwise Learning-To-Rank At Airbnb
- Title(参考訳): AirbnbでPairwise Learning-to-Rankを実践する
- Authors: Malay Haldar, Daochen Zha, Huiji Gao, Liwei He, Sanjeev Katariya,
- Abstract要約: 我々はこの制限をランキングアルゴリズムのSAT定理と呼ぶ。
Airbnbでの現在の作業は、大規模にデプロイされた作業ソリューションによって、答を提供しています。
- 参考スコア(独自算出の注目度): 25.51587160196683
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There are three fundamental asks from a ranking algorithm: it should scale to handle a large number of items, sort items accurately by their utility, and impose a total order on the items for logical consistency. But here's the catch-no algorithm can achieve all three at the same time. We call this limitation the SAT theorem for ranking algorithms. Given the dilemma, how can we design a practical system that meets user needs? Our current work at Airbnb provides an answer, with a working solution deployed at scale. We start with pairwise learning-to-rank (LTR) models-the bedrock of search ranking tech stacks today. They scale linearly with the number of items ranked and perform strongly on metrics like NDCG by learning from pairwise comparisons. They are at a sweet spot of performance vs. cost, making them an ideal choice for several industrial applications. However, they have a drawback-by ignoring interactions between items, they compromise on accuracy. To improve accuracy, we create a "true" pairwise LTR model-one that captures interactions between items during pairwise comparisons. But accuracy comes at the expense of scalability and total order, and we discuss strategies to counter these challenges. For greater accuracy, we take each item in the search result, and compare it against the rest of the items along two dimensions: (1) Superiority: How strongly do searchers prefer the given item over the remaining ones? (2) Similarity: How similar is the given item to all the other items? This forms the basis of our "all-pairwise" LTR framework, which factors in interactions across all items at once. Looking at items on the search result page all together-superiority and similarity combined-gives us a deeper understanding of what searchers truly want. We quantify the resulting improvements in searcher experience through offline and online experiments at Airbnb.
- Abstract(参考訳): ランキングアルゴリズムには3つの基本的な要求がある: 多数のアイテムを処理し、そのユーティリティによってアイテムを正確にソートし、論理的整合性のためにアイテムに全順序を課す。
しかし、ここではキャッチノーのアルゴリズムが同時に3つすべてを達成することができる。
我々はこの制限をランキングアルゴリズムのSAT定理と呼ぶ。
ジレンマを考えると、ユーザのニーズを満たす実用的なシステムをどうやって設計すればよいのか?
Airbnbでの現在の作業は、大規模にデプロイされた作業ソリューションによって、答を提供しています。
現在、検索ランキング技術スタックの基盤となっているLTRモデルから始めます。
ペア比較から学習することで、ランク付けされた項目の数と線形にスケールし、NDCGのようなメトリクスに強く依存する。
それらはパフォーマンスとコストのスイートスポットであり、いくつかの産業アプリケーションにとって理想的な選択肢です。
しかし、アイテム間の相互作用を無視して、正確さを損なうという欠点がある。
精度を向上させるために、ペアワイズ比較においてアイテム間の相互作用をキャプチャする「真の」ペアワイズLTRモデルを作成する。
しかし、精度はスケーラビリティと全順序を犠牲にし、これらの課題に対処するための戦略について議論する。
より正確には、各項目を検索結果に取り込み、各項目を2次元の他の項目と比較する。
(2)類似性: 与えられたアイテムは、他のすべてのアイテムとどの程度似ているか?
これは、すべての項目間のインタラクションを一度にファクタする、我々の"全ペアワイズ"LTRフレームワークの基礎を形成します。
検索結果のページの項目をまとめて見ることで、検索者が本当に求めているものについてより深く理解できるようになる。
Airbnbのオフラインおよびオンライン実験を通じて、検索エクスペリエンスの改善を定量化しています。
関連論文リスト
- Scalable Private Partition Selection via Adaptive Weighting [66.09199304818928]
プライベート・セット・ユニオンでは、ユーザーは非有界宇宙からのアイテムのサブセットを保持する。
目標は、ユーザレベルの差分プライバシーを維持しながら、ユーザセットの統一から可能な限り多くのアイテムを出力することである。
そこで本研究では,プライバシに必要なしきい値よりもはるかに重い項目からより少ない項目へ適応的に重みを還元するアルゴリズムであるMaximumDegree (MAD)を提案する。
論文 参考訳(メタデータ) (2025-02-13T01:27:11Z) - Relevance Filtering for Embedding-based Retrieval [46.851594313019895]
埋め込み型検索では、ANN(Approximate Nearest Neighbor)検索により、大規模データセットから類似したアイテムを効率的に検索することができる。
本稿では,この課題に対処するために,埋め込み型検索のための新しい関連フィルタリングコンポーネント("Cosine Adapter" と呼ぶ)を提案する。
少ないリコールの損失を犠牲にして、回収したセットの精度を大幅に向上することが可能です。
論文 参考訳(メタデータ) (2024-08-09T06:21:20Z) - Active Preference Learning for Ordering Items In- and Out-of-sample [7.0774164818430565]
アイテムペアを積極的にサンプリングすることで、正確な順序付けを学ぶのに必要なアノテーションの数を減らすことができる。
多くのアルゴリズムはアイテム間の共有構造を無視している。
また、比較におけるノイズがアイテムペア間でどのように変化するかは無視することが一般的である。
論文 参考訳(メタデータ) (2024-05-05T21:44:03Z) - List-aware Reranking-Truncation Joint Model for Search and
Retrieval-augmented Generation [80.12531449946655]
本稿では,2つのタスクを同時に実行可能なRe rank-Truncation joint model(GenRT)を提案する。
GenRTは、エンコーダ-デコーダアーキテクチャに基づく生成パラダイムによるリランクとトランケーションを統合している。
提案手法は,Web検索および検索拡張LLMにおけるリランクタスクとトラルケーションタスクの両方においてSOTA性能を実現する。
論文 参考訳(メタデータ) (2024-02-05T06:52:53Z) - Beyond Two-Tower Matching: Learning Sparse Retrievable
Cross-Interactions for Recommendation [80.19762472699814]
2-towerモデルは、産業アプリケーションに広くデプロイされている推奨のための一般的なマッチングフレームワークである。
機能間相互作用の制限と、オンラインサービスにおける精度の低下など、主な課題が2つある。
我々は,高度な機能相互作用だけでなく,効率的な検索もサポートするSparCodeという新しいマッチングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-11-30T03:13:36Z) - Unsupervised Contrast-Consistent Ranking with Language Models [24.696017700382665]
言語モデルはランキングベースの知識を含み、コンテキスト内ランキングタスクの強力な解法である。
我々は、言語モデルのランキング知識を引き出すために、ペアワイズ、ポイントワイズ、リストワイズの各テクニックを比較した。
注意深いキャリブレーションと制約付きデコーディングであっても、プロンプトベースのテクニックは、必ずしもそれらが生成するランキングにおいて自己整合であるとは限らない。
論文 参考訳(メタデータ) (2023-09-13T14:36:26Z) - Online Learning of Optimally Diverse Rankings [63.62764375279861]
ユーザのフィードバックのみに基づいて最適なリストを効率よく学習するアルゴリズムを提案する。
我々は、$T$クエリの後に、LDRの後悔は$O((N-L)log(T))$としてスケールする。
論文 参考訳(メタデータ) (2021-09-13T12:13:20Z) - IRLI: Iterative Re-partitioning for Learning to Index [104.72641345738425]
分散環境でのロードバランスとスケーラビリティを維持しながら、高い精度を得る方法とのトレードオフが必要だ。
クエリ項目関連データから直接バケットを学習することで、アイテムを反復的に分割するIRLIと呼ばれる新しいアプローチを提案する。
我々は,irliが極めて自然な仮定の下で高い確率で正しい項目を検索し,優れた負荷分散を実現することを数学的に示す。
論文 参考訳(メタデータ) (2021-03-17T23:13:25Z) - Controlling Fairness and Bias in Dynamic Learning-to-Rank [31.41843594914603]
暗黙のフィードバックデータからランキング関数を学習しながら、グループフェアネスの概念を確実にする学習アルゴリズムを提案する。
このアルゴリズムは、公平さと実用性の両方のために、偏見のない推定器を統合するコントローラの形をとっている。
厳密な理論基盤と収束保証に加えて、アルゴリズムが極めて実用的で堅牢であることが実証的に明らかになった。
論文 参考訳(メタデータ) (2020-05-29T17:57:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。