論文の概要: DEO: Training-Free Direct Embedding Optimization for Negation-Aware Retrieval
- arxiv url: http://arxiv.org/abs/2603.09185v1
- Date: Tue, 10 Mar 2026 04:47:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.041187
- Title: DEO: Training-Free Direct Embedding Optimization for Negation-Aware Retrieval
- Title(参考訳): DEO: 否定認識検索のためのトレーニングフリー直接埋め込み最適化
- Authors: Taegyeong Lee, Jiwon Park, Seunghyun Hwang, JooYoung Jang,
- Abstract要約: 我々は,否定対応テキストとマルチモーダル検索のためのトレーニング不要な手法であるDirect Embedding Optimization (DEO)を提案する。
DEOはクエリを正および負のコンポーネントに分解し、クエリの埋め込みを対照的な目的で最適化する。
追加のトレーニングデータやモデル更新なしで、DeOは、+0.0738 nDCG@10と+0.1028 MAP@100のゲインで、NegConstraintのベースラインを上回っている。
これらの結果は,実環境における否定・排他的検索のためのDECの実用性を示すものである。
- 参考スコア(独自算出の注目度): 6.8984945362190695
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent advances in Large Language Models (LLMs) and Retrieval-Augmented Generation (RAG) have enabled diverse retrieval methods. However, existing retrieval methods often fail to accurately retrieve results for negation and exclusion queries. To address this limitation, prior approaches rely on embedding adaptation or fine-tuning, which introduce additional computational cost and deployment complexity. We propose Direct Embedding Optimization (DEO), a training-free method for negation-aware text and multimodal retrieval. DEO decomposes queries into positive and negative components and optimizes the query embedding with a contrastive objective. Without additional training data or model updates, DEO outperforms baselines on NegConstraint, with gains of +0.0738 nDCG@10 and +0.1028 MAP@100, while improving Recall@5 by +6\% over OpenAI CLIP in multimodal retrieval. These results demonstrate the practicality of DEO for negation- and exclusion-aware retrieval in real-world settings.
- Abstract(参考訳): 近年のLarge Language Models (LLM) とRetrieval-Augmented Generation (RAG) の進歩により,多様な検索手法が実現されている。
しかし,既存の検索手法では,否定クエリや排除クエリの結果を正確に検索できない場合が多い。
この制限に対処するために、事前のアプローチは、さらなる計算コストとデプロイメントの複雑さをもたらす、埋め込み適応や微調整に依存している。
我々は,否定対応テキストとマルチモーダル検索のためのトレーニング不要な手法であるDirect Embedding Optimization (DEO)を提案する。
DEOはクエリを正および負のコンポーネントに分解し、クエリの埋め込みを対照的な目的で最適化する。
追加のトレーニングデータやモデル更新がなければ、DeOはNegConstraintでベースラインを上回り、+0.0738 nDCG@10と+0.1028 MAP@100が増加し、マルチモーダル検索ではOpenAI CLIPでRecall@5を+6\%改善した。
これらの結果は,実環境における否定・排他的検索のためのDECの実用性を示すものである。
関連論文リスト
- Can Prompt Difficulty be Online Predicted for Accelerating RL Finetuning of Reasoning Models? [65.18157595903124]
本研究では任意のプロンプトの反復的近似評価について検討する。
Model Predictive Prompt Selection (MoPPS)はベイズにおけるリスク予測フレームワークである。
MoPPSは迅速な困難を確実に予測し、ロールアウトを大幅に削減したトレーニングを加速する。
論文 参考訳(メタデータ) (2025-07-07T03:20:52Z) - Maximally-Informative Retrieval for State Space Model Generation [59.954191072042526]
テスト時に特定のクエリに対するモデル不確実性を最小化するために、Retrieval In-Context Optimization (RICO)を導入する。
文書検索に外部に依存した従来の検索強化生成(RAG)とは異なり,本手法はモデルから直接のフィードバックを利用する。
モデル勾配を用いた標準のトップ$kの検索は、最適化手順を近似し、残余損失への接続を提供することを示す。
論文 参考訳(メタデータ) (2025-06-13T18:08:54Z) - Explicit Preference Optimization: No Need for an Implicit Reward Model [18.225409932618657]
直接選好最適化(DPO)とそのオフシュートは、個別の報酬トレーニングステップの必要性を回避する。
DPOをベースとした目的は,しかしながら,準最適正規化や反直観的アーティファクトの対象であることを示す。
論文 参考訳(メタデータ) (2025-06-09T07:11:01Z) - Embed Progressive Implicit Preference in Unified Space for Deep Collaborative Filtering [13.24227546548424]
GNOLR(Generalized Neural Ordinal Logistic Regression)は、ユーザエンゲージメントの構造的進行を捉えるために提案されている。
GNOLRは予測精度を高め、ユーザのエンゲージメントの進行を捉え、検索プロセスを単純化する。
10の実世界のデータセットでの実験では、GNOLRは効率と適応性において最先端の手法を大幅に上回っている。
論文 参考訳(メタデータ) (2025-05-27T08:43:35Z) - Optimizing Retrieval Augmented Generation for Object Constraint Language [3.4777703321218225]
OCLはモデルベースシステムエンジニアリング(MBSE)に必須であるが、手動でOCLルールを記述するのは複雑で時間を要する。
OCLBERT生成に対する3つの異なる検索戦略の影響を評価する。
検索は生成精度を向上させることができるが,その有効性は検索方法と検索したチャンク数に依存する。
論文 参考訳(メタデータ) (2025-05-19T14:00:10Z) - In-context Demonstration Matters: On Prompt Optimization for Pseudo-Supervision Refinement [71.60563181678323]
大規模言語モデル(LLM)は様々なタスクで大きな成功を収めており、生成品質をさらに向上させるためには微調整が必要である場合もある。
これらの課題に対処する直接的な解決策は、教師なしの下流タスクから高信頼のデータを生成することである。
本稿では,プロンプトと全体的な擬似スーパービジョンを両立させる新しい手法,擬似教師付きデモアライメント・アライメント・アライメント・プロンプト・最適化(PAPO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-04T03:39:28Z) - Query-Dependent Prompt Evaluation and Optimization with Offline Inverse
RL [62.824464372594576]
ゼロショットプロンプト最適化により,Large Language Models (LLM) の算術的推論能力を向上させることを目的とする。
このような最適化では、以前見過ごされたクエリ依存の目的を特定します。
本稿では、オフライン逆強化学習を利用して、実演データから洞察を引き出すPrompt-OIRLを紹介する。
論文 参考訳(メタデータ) (2023-09-13T01:12:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。