論文の概要: VQPP: Video Query Performance Prediction Benchmark
- arxiv url: http://arxiv.org/abs/2602.17814v1
- Date: Thu, 19 Feb 2026 20:32:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.136606
- Title: VQPP: Video Query Performance Prediction Benchmark
- Title(参考訳): VQPP: ビデオクエリのパフォーマンス予測ベンチマーク
- Authors: Adrian Catalin Lutu, Eduard Poesina, Radu Tudor Ionescu,
- Abstract要約: ビデオクエリ性能予測(VQPP)のための最初のベンチマークを提案する。
VQPPには56Kのテキストクエリと51Kのビデオが含まれており、公式のトレーニング、検証、テストの分割が付属している。
検索前および検索後のパフォーマンス予測器を複数検討し、ビデオ領域におけるQPPの今後の探索のための代表的なベンチマークを作成する。
- 参考スコア(独自算出の注目度): 22.214338497366082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Query performance prediction (QPP) is an important and actively studied information retrieval task, having various applications, such as query reformulation, query expansion, and retrieval system selection, among many others. The task has been primarily studied in the context of text and image retrieval, whereas QPP for content-based video retrieval (CBVR) remains largely underexplored. To this end, we propose the first benchmark for video query performance prediction (VQPP), comprising two text-to-video retrieval datasets and two CBVR systems, respectively. VQPP contains a total of 56K text queries and 51K videos, and comes with official training, validation and test splits, fostering direct comparisons and reproducible results. We explore multiple pre-retrieval and post-retrieval performance predictors, creating a representative benchmark for future exploration of QPP in the video domain. Our results show that pre-retrieval predictors obtain competitive performance, enabling applications before performing the retrieval step. We also demonstrate the applicability of VQPP by employing the best performing pre-retrieval predictor as reward model for training a large language model (LLM) on the query reformulation task via direct preference optimization (DPO). We release our benchmark and code at https://github.com/AdrianLutu/VQPP.
- Abstract(参考訳): クエリ性能予測(QPP)は,クエリ再構成やクエリ拡張,検索システム選択など,さまざまな応用を取り入れた,重要かつ活発に研究されている情報検索タスクである。
この課題は主にテキストと画像検索の文脈で研究されているが、コンテンツベースビデオ検索(CBVR)のQPPは未探索である。
そこで本研究では,2つのテキスト・ツー・ビデオ検索データセットと2つのCBVRシステムからなるビデオクエリ性能予測(VQPP)の最初のベンチマークを提案する。
VQPPには56Kのテキストクエリと51Kのビデオが含まれており、公式のトレーニング、検証とテストの分割、直接比較と再現可能な結果の育成が含まれている。
検索前および検索後のパフォーマンス予測器を複数検討し、ビデオ領域におけるQPPの今後の探索のための代表的なベンチマークを作成する。
この結果から,検索前の予測器は競争性能が向上し,検索ステップに先立ってアプリケーションを実現することができた。
また,VQPPの適用性についても,DPO(direct preference optimization)によるクエリ修正タスクにおいて,大規模言語モデル(LLM)をトレーニングするための報奨モデルとして,最高の事前検索予測器を用いて実証する。
ベンチマークとコードはhttps://github.com/AdrianLutu/VQPP.comで公開しています。
関連論文リスト
- RANKVIDEO: Reasoning Reranking for Text-to-Video Retrieval [99.33724613432922]
本稿では,ビデオ検索のための推論に基づくリランカであるRANKVIDEOを紹介する。
RANKVIDEOは、関連性を評価するためにビデオコンテンツを使用するクエリ-ビデオペアを明示的に理由付けている。
大規模なMultiVENT 2.0ベンチマークの実験では、RANKVIDEOは2段階のフレームワーク内での検索性能を一貫して改善している。
論文 参考訳(メタデータ) (2026-02-02T18:40:37Z) - Pixel-Grounded Retrieval for Knowledgeable Large Multimodal Models [58.46663983451155]
PixSearchは、地域レベルの認識と検索強化推論を統合する、エンドツーエンドのLMM(Large Multimodal Model)である。
エンコーディング中、PixSearchは検索をトリガーする検索>トークンを出力し、クエリのモダリティ(テキスト、画像、リージョン)を選択し、ビジュアルクエリとして直接機能するピクセルレベルのマスクを生成する。
エゴセントリックでエンティティ中心のVQAベンチマークでは、PixSearchは事実整合性と一般化を大幅に改善する。
論文 参考訳(メタデータ) (2026-01-27T00:46:08Z) - Predicting Retrieval Utility and Answer Quality in Retrieval-Augmented Generation [24.439170886636788]
RAGの改善の鍵となる課題は、検索した文書の有用性と最終回答の品質の両方を、正確性と妥当性の観点から予測することである。
RAG内では,検索性能予測と生成性能予測という2つの予測タスクを定義している。
入力クエリに条件付けされた検索コンテキストのLLMの難易度など、読者中心の機能は、予測精度をさらに高めることができると論じる。
論文 参考訳(メタデータ) (2026-01-20T23:59:54Z) - Revisiting Query Variants: The Advantage of Retrieval Over Generation of Query Variants for Effective QPP [24.439170886636788]
本稿では,QPPの所定のターゲットクエリに対するトレーニングセットからQVを抽出する手法を提案する。
最も類似した情報を必要とするクエリの検索において高いリコールを達成するため、直接検索したQVを第2検索により拡張する。
TREC DL'19 と DL'20 を用いて行った実験により,本手法により得られたQVを用いたQPP法は,既存のQVベースのQPP法よりも最大20%高い性能を示した。
論文 参考訳(メタデータ) (2025-10-02T19:36:58Z) - Bridging Information Asymmetry in Text-video Retrieval: A Data-centric Approach [56.610806615527885]
テキストビデオ検索(TVR)における重要な課題は、ビデオとテキスト間の情報非対称性である。
本稿では,このギャップを埋めるために,テキスト表現を豊かにすることで,映像コンテンツの豊かさに合わせたデータ中心のフレームワークを提案する。
本稿では,最も関連性が高く多様なクエリを識別し,計算コストを低減し,精度を向上するクエリ選択機構を提案する。
論文 参考訳(メタデータ) (2024-08-14T01:24:09Z) - Not All Pairs are Equal: Hierarchical Learning for Average-Precision-Oriented Video Retrieval [80.09819072780193]
平均精度(AP)は、関連ビデオのランキングを上位リストで評価する。
最近のビデオ検索手法は、全てのサンプル対を等しく扱うペアワイズ損失を利用する。
論文 参考訳(メタデータ) (2024-07-22T11:52:04Z) - CLIPVQA:Video Quality Assessment via CLIP [56.94085651315878]
VQA問題(CLIPVQA)に対する効率的なCLIPベースのトランスフォーマー手法を提案する。
提案したCLIPVQAは、新しい最先端のVQAパフォーマンスを実現し、既存のベンチマークVQAメソッドよりも最大で37%の汎用性を実現している。
論文 参考訳(メタデータ) (2024-07-06T02:32:28Z) - PQPP: A Joint Benchmark for Text-to-Image Prompt and Query Performance Prediction [21.5792639312506]
本稿では,画像生成性能の点から手動でアノテートするプロンプトの最初のデータセットを紹介する。
我々はこれらの評価をテキスト・ツー・イメージ検索に拡張し、検索性能を表す手動アノテーションを収集する。
そこで我々は,PQPP (Properced and query performance prediction) とPQPP (Properced and query performance prediction) の2つのタスク間で10万以上のクエリからなる最初の共同ベンチマークを構築した。
論文 参考訳(メタデータ) (2024-06-07T08:46:19Z) - Query Performance Prediction using Relevance Judgments Generated by Large Language Models [53.97064615557883]
自動生成関連判定(QPP-GenRE)を用いた新しいクエリ性能予測(QPP)フレームワークを提案する。
QPP-GenREは、QPPを独立したサブタスクに分解し、ランクリスト内の各項目の関連性を所定のクエリに予測する。
我々は,オープンソースの大規模言語モデル (LLM) を用いて,科学的妥当性を確保することにより,項目の関連性を予測する。
論文 参考訳(メタデータ) (2024-04-01T09:33:05Z) - Query Performance Prediction: From Ad-hoc to Conversational Search [55.37199498369387]
クエリパフォーマンス予測(QPP)は、情報検索における中核的なタスクである。
アドホック検索におけるQPPの有効性と有用性について検討した。
その可能性にもかかわらず、会話検索のためのQPPはほとんど研究されていない。
論文 参考訳(メタデータ) (2023-05-18T12:37:01Z) - iQPP: A Benchmark for Image Query Performance Prediction [24.573869540845124]
画像クエリ性能予測(iQPP)のための最初のベンチマークを提案する。
2つの最先端画像検索モデルを用いて,各問合せの根本的難易度を平均精度または精度@kとして推定する。
次に,新しい検索前および検索後クエリ性能予測器を提案し,既存の(テキストから画像まで)予測器と比較した。
我々の総合的な実験は、iQPPは挑戦的なベンチマークであり、将来の作業で対処する必要がある重要な研究ギャップを明らかにしていることを示している。
論文 参考訳(メタデータ) (2023-02-20T17:56:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。