論文の概要: Generalized Contrastive Learning for Multi-Modal Retrieval and Ranking
- arxiv url: http://arxiv.org/abs/2404.08535v1
- Date: Fri, 12 Apr 2024 15:30:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-15 14:37:30.584531
- Title: Generalized Contrastive Learning for Multi-Modal Retrieval and Ranking
- Title(参考訳): マルチモーダル検索とランク付けのための一般化されたコントラスト学習
- Authors: Tianyu Zhu, Myong Chol Jung, Jesse Clark,
- Abstract要約: マルチモーダル検索・ランキング(GCL)のための一般化コントラスト学習を提案する。
GCLは、バイナリ関連スコアを超えて、きめ細かいランキングから学ぶように設計されている。
以上の結果から,GCLはドメイン内NDCG@10が94.5%,コールドスタート評価が26.3~48.8%増加した。
- 参考スコア(独自算出の注目度): 2.5238707656136694
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contrastive learning has gained widespread adoption for retrieval tasks due to its minimal requirement for manual annotations. However, popular contrastive frameworks typically learn from binary relevance, making them ineffective at incorporating direct fine-grained rankings. In this paper, we curate a large-scale dataset featuring detailed relevance scores for each query-document pair to facilitate future research and evaluation. Subsequently, we propose Generalized Contrastive Learning for Multi-Modal Retrieval and Ranking (GCL), which is designed to learn from fine-grained rankings beyond binary relevance scores. Our results show that GCL achieves a 94.5% increase in NDCG@10 for in-domain and 26.3 to 48.8% increases for cold-start evaluations, all relative to the CLIP baseline and involving ground truth rankings.
- Abstract(参考訳): コントラスト学習は、手動アノテーションの最小限の要件のため、検索タスクに広く採用されている。
しかし、一般的なコントラストフレームワークは、二項関係から学習し、直接のきめ細かいランキングを組み込むのに効果がない。
本稿では,各問合せ文書の関連点を詳述した大規模データセットをキュレートし,今後の研究と評価を容易にする。
次に,2次関係点を超える詳細なランク付けから学習するための多モード検索・ランク付けのための一般化コントラスト学習を提案する。
以上の結果から,GCLはドメイン内NDCG@10が94.5%,コールドスタート評価が26.3~48.8%,CLIPベースラインと接地真実ランキングが94.5%増加した。
関連論文リスト
- A Large-Scale Study of Relevance Assessments with Large Language Models: An Initial Look [52.114284476700874]
本稿では,4つの異なる関連性評価手法が展開された大規模評価(TREC 2024 RAG Track)の結果について報告する。
自動生成UMBRELA判定は、完全に手動による判断を置き換えて、実行レベルの有効性を正確に捉えることができる。
意外なことに、LLMアシストは完全な手作業による評価と相関を増さないようで、人間のループプロセスに関連するコストは明らかな有意義な利益をもたらすものではないことを示唆している。
論文 参考訳(メタデータ) (2024-11-13T01:12:35Z) - Self-Calibrated Listwise Reranking with Large Language Models [137.6557607279876]
大規模言語モデル (LLM) はシーケンシャル・ツー・シーケンス・アプローチによってタスクのランク付けに使用されている。
この階調のパラダイムは、より大きな候補集合を反復的に扱うためにスライディングウインドウ戦略を必要とする。
そこで本稿では,LLMを用いた自己校正リストのランク付け手法を提案する。
論文 参考訳(メタデータ) (2024-11-07T10:31:31Z) - Efficient course recommendations with T5-based ranking and summarization [2.6968321526169503]
そこで我々は,MSMARCOをリランカとしてLandT5を微調整した2段階探索パイプラインを開発した。
新たにラベル付けされた2つのデータセットに対して,A/Bテストとユーザアンケートでランク付けを行った。
オンラインコースレコメンデーションのためのT5ベースの再ランク付けと要約は、単一ステップの語彙検索よりもはるかに優れた効果が得られると結論付けている。
論文 参考訳(メタデータ) (2024-06-27T09:07:32Z) - Empowering Large Language Models to Set up a Knowledge Retrieval Indexer via Self-Learning [17.83428132220955]
Pseudo-Graph Retrieval-Augmented Generation (PG-RAG) という事前検索フレームワークを提案する。
PG-RAGは、LLMを学生として、豊富な原材料を提供することで概念化している。
PG-RAGは、検索フェーズの間、ノートをめくると人間の行動を模倣する。
論文 参考訳(メタデータ) (2024-05-27T08:26:45Z) - Unbiased Learning to Rank Meets Reality: Lessons from Baidu's Large-Scale Search Dataset [48.708591046906896]
Unbiased Learning-to-rank(ULTR)は、ユーザクリックから学習するための確立したフレームワークである。
Baidu-ULTRデータセットで利用可能な実験を再検討し、拡張する。
標準的な非バイアスの学習 to ランク技術は、クリック予測を堅牢に改善するが、ランク付け性能を一貫して改善するのに苦労している。
論文 参考訳(メタデータ) (2024-04-03T08:00:46Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Large Language Models are Effective Text Rankers with Pairwise Ranking Prompting [65.00288634420812]
Pairwise Ranking Prompting (PRP)は、大規模言語モデル(LLM)の負担を大幅に軽減する手法である。
本研究は,中等級のオープンソースLCMを用いた標準ベンチマークにおいて,最先端のランク付け性能を達成した文献としては初めてである。
論文 参考訳(メタデータ) (2023-06-30T11:32:25Z) - Integrating Rankings into Quantized Scores in Peer Review [61.27794774537103]
ピアレビューでは、レビュアーは通常、論文のスコアを提供するように求められます。
この問題を軽減するため、カンファレンスはレビュアーにレビューした論文のランキングを付加するように求め始めている。
このランキング情報を使用するための標準的な手順はなく、エリアチェアは異なる方法でそれを使用することができる。
我々は、ランキング情報をスコアに組み込むために、原則化されたアプローチを取る。
論文 参考訳(メタデータ) (2022-04-05T19:39:13Z) - Query-level Early Exit for Additive Learning-to-Rank Ensembles [14.240566571342924]
検索エンジンランキングパイプラインは通常、マシン学習決定ツリーの大規模なアンサンブルに基づいている。
本稿では,テクストレベルの早期退避問題について検討する。
NDCG@10では,クエリレベルの早期終了が最大7.5%向上し,スコアリングプロセスの高速化が最大2.2倍になることを示す。
論文 参考訳(メタデータ) (2020-04-30T08:59:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。