論文の概要: TSPRank: Bridging Pairwise and Listwise Methods with a Bilinear Travelling Salesman Model
- arxiv url: http://arxiv.org/abs/2411.12064v1
- Date: Mon, 18 Nov 2024 21:10:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-20 13:37:12.278937
- Title: TSPRank: Bridging Pairwise and Listwise Methods with a Bilinear Travelling Salesman Model
- Title(参考訳): TSPRank:バイリニアトラベルセールスマンモデルによるペアワイズおよびリストワイズ手法のブリッジ
- Authors: Weixian Waylon Li, Yftah Ziser, Yifei Xie, Shay B. Cohen, Tiejun Ma,
- Abstract要約: トラベリングセールスマン問題ランキング (TSPRank) は、ハイブリッド・ペア・リストワイズ・ランキング法である。
TSPRankの堅牢性と、異なるドメインにわたる優れたパフォーマンスは、汎用的で効果的なLETORソリューションとしての可能性を強調している。
- 参考スコア(独自算出の注目度): 19.7255072094322
- License:
- Abstract: Traditional Learning-To-Rank (LETOR) approaches, including pairwise methods like RankNet and LambdaMART, often fall short by solely focusing on pairwise comparisons, leading to sub-optimal global rankings. Conversely, deep learning based listwise methods, while aiming to optimise entire lists, require complex tuning and yield only marginal improvements over robust pairwise models. To overcome these limitations, we introduce Travelling Salesman Problem Rank (TSPRank), a hybrid pairwise-listwise ranking method. TSPRank reframes the ranking problem as a Travelling Salesman Problem (TSP), a well-known combinatorial optimisation challenge that has been extensively studied for its numerous solution algorithms and applications. This approach enables the modelling of pairwise relationships and leverages combinatorial optimisation to determine the listwise ranking. This approach can be directly integrated as an additional component into embeddings generated by existing backbone models to enhance ranking performance. Our extensive experiments across three backbone models on diverse tasks, including stock ranking, information retrieval, and historical events ordering, demonstrate that TSPRank significantly outperforms both pure pairwise and listwise methods. Our qualitative analysis reveals that TSPRank's main advantage over existing methods is its ability to harness global information better while ranking. TSPRank's robustness and superior performance across different domains highlight its potential as a versatile and effective LETOR solution. The code and preprocessed data are available at https://github.com/waylonli/TSPRank-KDD2025.
- Abstract(参考訳): RankNetやLambdaMARTのようなペアワイズメソッドを含む従来のLearning-To-Rank(LETOR)アプローチは、ペアワイズ比較にのみフォーカスすることで不足することが多く、亜最適グローバルランキングにつながります。
逆に、ディープラーニングに基づくリストワイズ手法は、リスト全体を最適化する一方で、複雑なチューニングを必要とし、堅牢なペアワイズモデルよりも限界的な改善しか得られない。
これらの制限を克服するために,ハイブリッド・ペアワイズ・リストワイズ・ランキング法であるトラベリングセールスマン問題ランキング(TSPRank)を導入する。
TSPRankは、トラベルセールスマン問題 (TSP) としてランク付けの問題を再検討し、多くのソリューションアルゴリズムと応用で広く研究されている、よく知られた組合せ最適化問題である。
このアプローチはペアワイズ関係のモデリングを可能にし、組合せ最適化を利用してリストワイズランキングを決定する。
このアプローチは、既存のバックボーンモデルによって生成された埋め込みに追加のコンポーネントとして直接統合することで、ランキングのパフォーマンスを向上させることができる。
ストックランキングや情報検索,過去のイベント注文など,さまざまなタスクに関する3つのバックボーンモデルに対する広範な実験により,TSPRankが純粋にペアワイズとリストワイズの両方で有意に優れていることが示された。
我々の定性的分析は、TSPRankの既存の手法に対する大きな利点は、ランク付け中にグローバルな情報をよりよく活用できることであることを示している。
TSPRankの堅牢性と、異なるドメインにわたる優れたパフォーマンスは、汎用的で効果的なLETORソリューションとしての可能性を強調している。
コードと事前処理されたデータはhttps://github.com/waylonli/TSPRank-KDD2025で公開されている。
関連論文リスト
- Self-Calibrated Listwise Reranking with Large Language Models [137.6557607279876]
大規模言語モデル (LLM) はシーケンシャル・ツー・シーケンス・アプローチによってタスクのランク付けに使用されている。
この階調のパラダイムは、より大きな候補集合を反復的に扱うためにスライディングウインドウ戦略を必要とする。
そこで本稿では,LLMを用いた自己校正リストのランク付け手法を提案する。
論文 参考訳(メタデータ) (2024-11-07T10:31:31Z) - Rethinking Object Saliency Ranking: A Novel Whole-flow Processing
Paradigm [22.038715439842044]
本稿では、その「重要順」によって、有能な物体のランク付けに完全にフォーカスすることを目的とした、有能なランキングのための新しいパラダイムを提案する。
提案手法は、広く使われているSALICONの既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-12-06T01:51:03Z) - Adaptive Neural Ranking Framework: Toward Maximized Business Goal for
Cascade Ranking Systems [33.46891569350896]
カスケードランキングは、オンライン広告とレコメンデーションシステムにおける大規模なトップk選択問題に広く使われている。
それまでの学習からランクへの取り組みは、モデルに完全な順序やトップクオーダを学習させることに重点を置いていた。
我々はこの手法をアダプティブ・ニューラルランキング・フレームワーク (Adaptive Neural Ranking Framework, ARF) と命名する。
論文 参考訳(メタデータ) (2023-10-16T14:43:02Z) - Unsupervised Contrast-Consistent Ranking with Language Models [24.696017700382665]
言語モデルはランキングベースの知識を含み、コンテキスト内ランキングタスクの強力な解法である。
我々は、言語モデルのランキング知識を引き出すために、ペアワイズ、ポイントワイズ、リストワイズの各テクニックを比較した。
注意深いキャリブレーションと制約付きデコーディングであっても、プロンプトベースのテクニックは、必ずしもそれらが生成するランキングにおいて自己整合であるとは限らない。
論文 参考訳(メタデータ) (2023-09-13T14:36:26Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Zero-Shot Listwise Document Reranking with a Large Language Model [58.64141622176841]
本稿では,タスク固有の学習データを用いることなく,言語モデル(LRL)を用いたリスワイズ・リランカを提案する。
3つのTRECウェブサーチデータセットの実験により、LRLは第1段検索結果の再ランク付け時にゼロショットポイントワイズ法より優れるだけでなく、最終段再ランカとしても機能することが示された。
論文 参考訳(メタデータ) (2023-05-03T14:45:34Z) - GNNRank: Learning Global Rankings from Pairwise Comparisons via Directed
Graph Neural Networks [68.61934077627085]
本稿では,グラフ埋め込みを学習可能なGNNと互換性のあるモデリングフレームワークであるGNNRankを紹介する。
既存の手法と比較して,我々の手法が競争力があり,しばしば優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-02-01T04:19:50Z) - Learning-To-Ensemble by Contextual Rank Aggregation in E-Commerce [8.067201256886733]
本稿では,アンサンブルモデルを文脈的ランクアグリゲータに置き換えた新しいラーニング・トゥ・エンサンブル・フレームワークRAEGOを提案する。
RA-EGOは当社のオンラインシステムにデプロイされ、収益を大幅に改善しました。
論文 参考訳(メタデータ) (2021-07-19T03:24:06Z) - PiRank: Learning To Rank via Differentiable Sorting [85.28916333414145]
ランク付けのための新しい分類可能なサロゲートであるPiRankを提案する。
ピランクは所望の指標をゼロ温度の限界で正確に回収する。
論文 参考訳(メタデータ) (2020-12-12T05:07:36Z) - SetRank: A Setwise Bayesian Approach for Collaborative Ranking from
Implicit Feedback [50.13745601531148]
提案手法は,提案システムにおける暗黙的フィードバックの特性に対応するために,協調的ランキング(SeetRank)のためのセッティングワイドベイズ的手法を提案する。
具体的には、SetRankは、新しい設定された選好比較の後方確率を最大化することを目的としている。
また、SetRankの理論解析により、余剰リスクの境界が$sqrtM/N$に比例できることを示す。
論文 参考訳(メタデータ) (2020-02-23T06:40:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。