論文の概要: IntRec: Intent-based Retrieval with Contrastive Refinement
- arxiv url: http://arxiv.org/abs/2602.17639v1
- Date: Thu, 19 Feb 2026 18:50:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:29.402418
- Title: IntRec: Intent-based Retrieval with Contrastive Refinement
- Title(参考訳): IntRec: コントラストリファインメントを持つインテントベースの検索
- Authors: Pourya Shamsolmoali, Masoumeh Zareapoor, Eric Granger, Yue Lu,
- Abstract要約: IntRecは対話型オブジェクト検索フレームワークで、ユーザーのフィードバックに基づいて予測を洗練する。
中心となるIntent State(IS)は、正のアンカー(確認されたキュー)と負の制約(拒絶された仮説)のための二重メモリセットを維持する。
- 参考スコア(独自算出の注目度): 42.24292951933703
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Retrieving user-specified objects from complex scenes remains a challenging task, especially when queries are ambiguous or involve multiple similar objects. Existing open-vocabulary detectors operate in a one-shot manner, lacking the ability to refine predictions based on user feedback. To address this, we propose IntRec, an interactive object retrieval framework that refines predictions based on user feedback. At its core is an Intent State (IS) that maintains dual memory sets for positive anchors (confirmed cues) and negative constraints (rejected hypotheses). A contrastive alignment function ranks candidate objects by maximizing similarity to positive cues while penalizing rejected ones, enabling fine-grained disambiguation in cluttered scenes. Our interactive framework provides substantial improvements in retrieval accuracy without additional supervision. On LVIS, IntRec achieves 35.4 AP, outperforming OVMR, CoDet, and CAKE by +2.3, +3.7, and +0.5, respectively. On the challenging LVIS-Ambiguous benchmark, it improves performance by +7.9 AP over its one-shot baseline after a single corrective feedback, with less than 30 ms of added latency per interaction.
- Abstract(参考訳): 複雑なシーンからユーザ指定のオブジェクトを取得することは、特にクエリがあいまいである場合や、複数の類似したオブジェクトを含む場合、依然として難しい作業である。
既存のオープン語彙検出器はワンショットで動作し、ユーザのフィードバックに基づいて予測を洗練できない。
これを解決するために,ユーザフィードバックに基づいて予測を洗練する対話型オブジェクト検索フレームワークIntRecを提案する。
中心となるIntent State(IS)は、正のアンカー(確認されたキュー)と負の制約(拒絶された仮説)のための二重メモリセットを維持する。
対照的なアライメント関数は、拒否されたものをペナライズしながら、正のキューと類似性を最大化して候補オブジェクトをランク付けする。
我々のインタラクティブなフレームワークは、追加の監督なしに、検索精度を大幅に改善する。
LVISでは、IntRecは35.4 APを獲得し、OVMR、CoDet、CAKEを+2.3、+3.7、+0.5で上回る。
挑戦的なLVIS-Ambiguousベンチマークでは、単一の修正フィードバックの後、1ショットベースラインで+7.9 APの性能を向上し、インタラクション毎のレイテンシが30ミリ秒未満になった。
関連論文リスト
- Robust Relevance Feedback for Interactive Known-Item Video Search [30.382002857815497]
我々は、トップk選択の安定性を改善するためのペアワイズ相対判定フィードバックを導入する。
ユーザ認識を複数のサブパーセプションに分解し,それぞれが独立した埋め込み空間として表現される。
我々は,各ユーザフィードバックインスタンスに基づいて,サブパーセプションの組み合わせを推定する予測的ユーザモデルを開発する。
論文 参考訳(メタデータ) (2025-05-21T05:31:49Z) - Bidirectional Decoding: Improving Action Chunking via Guided Test-Time Sampling [51.38330727868982]
動作チャンキングが学習者と実証者の間の分岐にどのように影響するかを示す。
動作チャンキングをクローズドループ適応でブリッジするテスト時間推論アルゴリズムである双方向デコーディング(BID)を提案する。
提案手法は、7つのシミュレーションベンチマークと2つの実世界のタスクにまたがって、最先端の2つの生成ポリシーの性能を向上させる。
論文 参考訳(メタデータ) (2024-08-30T15:39:34Z) - A Reproducibility Study of PLAID [25.86500025007641]
我々はPLAIDと論文から欠落した重要なベースラインを比較した。
ColBERTv2 を BM25 の初期プール上に再ランカとして適用することにより,低レイテンシ環境での効率効率・効率性トレードオフが向上することがわかった。
この制限を克服するために、最近提案された上位文書の隣人を引き出すように、再ランク付けする修正が提案されていることが分かりました。
論文 参考訳(メタデータ) (2024-04-23T12:46:53Z) - ReFIT: Relevance Feedback from a Reranker during Inference [109.33278799999582]
Retrieve-and-Rerankは、ニューラル情報検索の一般的なフレームワークである。
本稿では,リランカを利用してリコールを改善する手法を提案する。
論文 参考訳(メタデータ) (2023-05-19T15:30:33Z) - TSAA: A Two-Stage Anchor Assignment Method towards Anchor Drift in
Crowded Object Detection [0.0]
正のアンカーは、複数のオブジェクトが重なり合うときに最も重なるオブジェクトに対して常に回帰するとは限らない。
単純な適応型2段アンカーアサイン(TSAA)法を提案する。
論文 参考訳(メタデータ) (2022-11-02T02:05:00Z) - ReAct: Temporal Action Detection with Relational Queries [84.76646044604055]
本研究は,アクションクエリを備えたエンコーダ・デコーダフレームワークを用いて,時間的行動検出(TAD)の進展を図ることを目的とする。
まず,デコーダ内の関係注意機構を提案し,その関係に基づいてクエリ間の関心を誘導する。
最後に、高品質なクエリを区別するために、推論時に各アクションクエリのローカライズ品質を予測することを提案する。
論文 参考訳(メタデータ) (2022-07-14T17:46:37Z) - Bootstrapping User and Item Representations for One-Class Collaborative
Filtering [24.30834981766022]
ワンクラスの協調フィルタリング(OCCF)は、ポジティブに関連があるがまだ相互作用していないユーザーとアイテムのペアを特定することです。
本論文では,否定的なサンプリングを必要としない新しいOCCFフレームワークであるBUIRを提案する。
論文 参考訳(メタデータ) (2021-05-13T14:24:13Z) - RepPoints V2: Verification Meets Regression for Object Detection [65.120827759348]
本稿ではRepPointsのローカライズ予測に検証タスクを導入する。
RepPoints v2は、オリジナルのRepPointsよりも約2.0mAPの一貫性のある改善を提供する。
提案手法は、インスタンスセグメンテーションのようなアプリケーションと同様に、他のオブジェクト検出フレームワークをより高めることができることを示す。
論文 参考訳(メタデータ) (2020-07-16T17:57:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。