論文の概要: Multi-Label Learning to Rank through Multi-Objective Optimization
- arxiv url: http://arxiv.org/abs/2207.03060v2
- Date: Fri, 8 Jul 2022 16:30:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-11 11:08:52.057936
- Title: Multi-Label Learning to Rank through Multi-Objective Optimization
- Title(参考訳): 多目的最適化によるランキングのマルチラベル学習
- Authors: Debabrata Mahapatra, Chaosheng Dong, Yetian Chen, Deqiang Meng,
Michinari Momma
- Abstract要約: 近年,情報検索システムではランク付け技法の学習が至るところで行われている。
あいまいさを解決するためには、多くの関連基準を用いてモデルを訓練することが望ましい。
本稿では,ラベルからの情報を様々な方法で組み合わせて,目標間のトレードオフを特徴付ける,汎用的な枠組みを提案する。
- 参考スコア(独自算出の注目度): 9.099663022952496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning to Rank (LTR) technique is ubiquitous in the Information Retrieval
system nowadays, especially in the Search Ranking application. The query-item
relevance labels typically used to train the ranking model are often noisy
measurements of human behavior, e.g., product rating for product search. The
coarse measurements make the ground truth ranking non-unique with respect to a
single relevance criterion. To resolve ambiguity, it is desirable to train a
model using many relevance criteria, giving rise to Multi-Label LTR (MLLTR).
Moreover, it formulates multiple goals that may be conflicting yet important to
optimize for simultaneously, e.g., in product search, a ranking model can be
trained based on product quality and purchase likelihood to increase revenue.
In this research, we leverage the Multi-Objective Optimization (MOO) aspect of
the MLLTR problem and employ recently developed MOO algorithms to solve it.
Specifically, we propose a general framework where the information from labels
can be combined in a variety of ways to meaningfully characterize the trade-off
among the goals. Our framework allows for any gradient based MOO algorithm to
be used for solving the MLLTR problem. We test the proposed framework on two
publicly available LTR datasets and one e-commerce dataset to show its
efficacy.
- Abstract(参考訳): 近年,Learning to Rank(LTR)技術は情報検索システム,特に検索ランキングアプリケーションにおいて普及している。
ランキングモデルのトレーニングに一般的に使用されるクエリ項目関連ラベルは、製品検索の製品評価など、人の行動の騒々しい測定値であることが多い。
粗い測定は、単一の関連性基準に関して、基礎的な真理を不均一にランク付けする。
あいまいさを解決するためには、多くの関連基準を用いてモデルを訓練することが望ましいため、MLLTR(Multi-Label LTR)が生まれる。
さらに、製品検索において、製品の品質と購入可能性に基づいてランキングモデルを訓練し、収益を増加させるなど、同時に最適化する上で、相反するが重要な複数の目標を定式化する。
本研究では,MLLTR問題における多目的最適化(MOO)の側面を活用し,最近開発されたMOOアルゴリズムを用いて解く。
具体的には,ラベルからの情報を様々な方法で組み合わせて,目標間のトレードオフを有意義に特徴付ける,汎用的な枠組みを提案する。
我々のフレームワークは、任意の勾配に基づくMOOアルゴリズムを、MLLTR問題を解決するために使用できる。
提案フレームワークを2つのltrデータセットと1つのeコマースデータセット上でテストし,有効性を示す。
関連論文リスト
- RRADistill: Distilling LLMs' Passage Ranking Ability for Document Re-Ranking of Long-Tail Queries in a Search Engine [2.0379810233726126]
大規模言語モデル(LLM)は、クエリとドキュメント間の意味的関係を理解するのに優れている。
これらのクエリは、少ないユーザエンゲージメントと限られたフィードバックのため、フィードバックベースのランキングでは難しい。
本稿では,エンコーダモデルとデコーダモデルの両方に対して,効率的なラベル生成パイプラインと新しいsLLMトレーニング手法を提案する。
論文 参考訳(メタデータ) (2024-10-08T11:28:06Z) - LLaMA-Berry: Pairwise Optimization for O1-like Olympiad-Level Mathematical Reasoning [56.273799410256075]
このフレームワークはMonte Carlo Tree Search (MCTS)と反復的なSelf-Refineを組み合わせて推論パスを最適化する。
このフレームワークは、一般的なベンチマークと高度なベンチマークでテストされており、探索効率と問題解決能力の点で優れた性能を示している。
論文 参考訳(メタデータ) (2024-10-03T18:12:29Z) - Large Language Model-guided Document Selection [23.673690115025913]
大規模言語モデル(LLM)の事前学習は、ますます増加する計算予算を消費する。
近年の研究では、ドキュメントの選択がFLOPのごく一部で同等のモデル品質を実現することが実証されている。
拡張性のある汎用ドメイン文書選択のための有望な方向を探究する。
論文 参考訳(メタデータ) (2024-06-07T04:52:46Z) - Large Language Models for Relevance Judgment in Product Search [48.56992980315751]
検索クエリに対する検索および再ランクされたアイテムの高い関連性は、製品検索の成功の土台である。
本稿では,大規模言語モデル(LLM)を活用して,クエリ・イテムペア(QIP)の関連判断を大規模に自動化する手法について述べる。
本研究は,製品検索における関連判断の自動化の分野への直接的な影響を示唆するものである。
論文 参考訳(メタデータ) (2024-06-01T00:52:41Z) - MLLM-DataEngine: An Iterative Refinement Approach for MLLM [62.30753425449056]
本稿では,データ生成,モデルトレーニング,評価を橋渡しする新しいクローズドループシステムを提案する。
各ループ内で、MLLM-DataEngineはまず評価結果に基づいてモデルの弱点を分析する。
ターゲットとして,異なる種類のデータの比率を調整する適応型バッドケースサンプリングモジュールを提案する。
品質については、GPT-4を用いて、各データタイプで高品質なデータを生成する。
論文 参考訳(メタデータ) (2023-08-25T01:41:04Z) - Large Language Models are Zero-Shot Rankers for Recommender Systems [76.02500186203929]
本研究では,レコメンダシステムのランキングモデルとして機能する大規模言語モデル(LLM)の能力を検討することを目的とする。
LLMにはゼロショットランキング能力があるが、歴史的相互作用の順序を理解するのに苦労していることを示す。
これらの問題は、特別に設計されたプロンプトとブートストラップ戦略によって緩和可能であることを実証する。
論文 参考訳(メタデータ) (2023-05-15T17:57:39Z) - Is ChatGPT Good at Search? Investigating Large Language Models as
Re-Ranking Agents [56.104476412839944]
大規模言語モデル(LLM)は、様々な言語関連タスクにまたがる顕著なゼロショットの一般化を実証している。
本稿では、情報検索(IR)における関連性ランキングのためのジェネレーティブLLMについて検討する。
LLMのデータ汚染に関する懸念に対処するため,我々はNovereEvalという新しいテストセットを収集した。
実世界のアプリケーションの効率を向上させるため、ChatGPTのランキング能力を小さな特殊モデルに蒸留する可能性を探る。
論文 参考訳(メタデータ) (2023-04-19T10:16:03Z) - Memory-Based Optimization Methods for Model-Agnostic Meta-Learning and
Personalized Federated Learning [56.17603785248675]
モデルに依存しないメタラーニング (MAML) が人気のある研究分野となっている。
既存のMAMLアルゴリズムは、イテレーション毎にメタモデルを更新するためにいくつかのタスクとデータポイントをサンプリングすることで、エピソードのアイデアに依存している。
本稿では,MAMLのメモリベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-09T08:47:58Z) - Sample-Rank: Weak Multi-Objective Recommendations Using Rejection
Sampling [0.5156484100374059]
本稿では,マルチゴールサンプリングとユーザ関連度(Sample-Rank)のランク付けによるマーケットプレースの多目的目標への推薦手法を提案する。
提案手法の新規性は,望まれるマルチゴール分布からサンプリングするMOレコメンデーション問題を低減し,プロダクションフレンドリーな学習-ランクモデルを構築することである。
論文 参考訳(メタデータ) (2020-08-24T09:17:18Z) - Analysis of Multivariate Scoring Functions for Automatic Unbiased
Learning to Rank [14.827143632277274]
ユーザのバイアスモデル(すなわち、確率モデル)とアンバイアスなランク付けを共同で学習するAutoULTRアルゴリズムは、性能が優れ、実際のデプロイコストが低いため、多くの注目を集めている。
近年の文脈認識型学習 to ランクモデルの進歩により,複数の文書をまとめて読み上げ,それらのランキングスコアを予測する多変量スコア関数が,人間関連ラベルを用いたランキングタスクにおいて,一変量ランキング関数よりも強力であることが示されている。
2つの大規模ベンチマークデータセットの合成クリック実験により、置換不変な多変量スコアリング機能を持つAutoULTRモデルの性能が著しく向上したことが示された。
論文 参考訳(メタデータ) (2020-08-20T16:31:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。