論文の概要: Rationale-Augmented Retrieval with Constrained LLM Re-Ranking for Task Discovery
- arxiv url: http://arxiv.org/abs/2510.05131v1
- Date: Wed, 01 Oct 2025 01:28:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:07.833912
- Title: Rationale-Augmented Retrieval with Constrained LLM Re-Ranking for Task Discovery
- Title(参考訳): タスク発見のためのLLM再帰制約付きRationale-Augmented Retrieval
- Authors: Bowen Wei,
- Abstract要約: GoEngageを利用するヘッドスタートプログラムは、新しいスタッフやローテーションスタッフがプラットフォームホームページで適切なタスクを見つけようとすると、重大な課題に直面します。
これらの困難は、ドメイン固有の用語、システム固有の命名法、およびタイポスや様々な単語順序を扱う際の語彙探索の固有の制限から生じる。
本稿では, 軽量な型付き語彙検索, 埋め込み型ベクトル類似性, 制約付き大言語モデル(LLM)を組み合わさった, 実用的なハイブリッド意味検索システムを提案する。
- 参考スコア(独自算出の注目度): 4.061135251278187
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Head Start programs utilizing GoEngage face significant challenges when new or rotating staff attempt to locate appropriate Tasks (modules) on the platform homepage. These difficulties arise from domain-specific jargon (e.g., IFPA, DRDP), system-specific nomenclature (e.g., Application Pool), and the inherent limitations of lexical search in handling typos and varied word ordering. We propose a pragmatic hybrid semantic search system that synergistically combines lightweight typo-tolerant lexical retrieval, embedding-based vector similarity, and constrained large language model (LLM) re-ranking. Our approach leverages the organization's existing Task Repository and Knowledge Base infrastructure while ensuring trustworthiness through low false-positive rates, evolvability to accommodate terminological changes, and economic efficiency via intelligent caching, shortlist generation, and graceful degradation mechanisms. We provide a comprehensive framework detailing required resources, a phased implementation strategy with concrete milestones, an offline evaluation protocol utilizing curated test cases (Hit@K, Precision@K, Recall@K, MRR), and an online measurement methodology incorporating query success metrics, zero-result rates, and dwell-time proxies.
- Abstract(参考訳): GoEngageを利用するヘッドスタートプログラムは、新しいスタッフやローテーションスタッフがプラットフォームホームページで適切なタスク(モジュール)を見つけようとすると、重大な課題に直面します。
これらの困難は、ドメイン固有のjargon(例:IFPA、DRDP)、システム固有のnomenclature(例:Application Pool)、およびタイポスや様々な単語順序を扱う際の語彙探索の固有の制限から生じる。
本稿では,軽量なタイポトレラント語彙検索,埋め込み型ベクトル類似性,制約付き大言語モデル(LLM)の再分類を相乗的に組み合わせた,実用的なハイブリッドセマンティックサーチシステムを提案する。
当社のアプローチでは,従来のタスクリポジトリとナレッジベースインフラストラクチャを活用しながら,低い偽陽性率,用語的変化に対応するための進化性,インテリジェントキャッシングによる経済効率,ショートリスト生成,優雅な劣化メカニズムを通じて信頼性を確保する。
我々は、要求されるリソースを詳述する包括的なフレームワーク、具体的なマイルストーンを備えた段階的実装戦略、キュレートされたテストケース(Hit@K、Precision@K、Recall@K、MRR)を利用したオフライン評価プロトコル、およびクエリ成功メトリクス、ゼロリサートレート、dwell-timeプロキシを組み込んだオンライン測定手法を提供する。
関連論文リスト
- Semantic Caching for Low-Cost LLM Serving: From Offline Learning to Online Adaptation [54.61034867177997]
キャッシング推論応答は、大きな言語モデルに他の前方を通さずに、それらを検索することができる。
従来の正確なキャッシュは、クエリ間のセマンティックな類似性を見落とし、不要な再計算をもたらす。
本稿では,未知のクエリおよびコスト分布下でのセマンティックキャッシュ消去のための,原則的,学習ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-11T06:53:27Z) - DAMR: Efficient and Adaptive Context-Aware Knowledge Graph Question Answering with LLM-Guided MCTS [28.828541350757714]
本稿では,知識グラフ質問応答(KGQA)のための動的適応MCTSベースの推論(DAMR)を提案する。
DAMRは、MCTS(Monte Carlo Tree Search)と適応経路評価を統合し、コンテキスト対応のKGQAを実現する。
複数のKGQAベンチマークの実験では、DAMRはSOTA法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2025-08-01T15:38:21Z) - Tree-Based Text Retrieval via Hierarchical Clustering in RAGFrameworks: Application on Taiwanese Regulations [0.0]
階層的なクラスタリングに基づく検索手法を提案する。
本手法は,意味的関連コンテンツを適応的に選択しながら,システム応答の精度と関連性を維持する。
我々のフレームワークは実装が簡単で、既存のRAGパイプラインと簡単に統合できます。
論文 参考訳(メタデータ) (2025-06-16T15:34:29Z) - SweRank: Software Issue Localization with Code Ranking [109.3289316191729]
SweRankは、ソフトウェア問題ローカライゼーションのための効率的な検索と参照のためのフレームワークである。
パブリックなGitHubリポジトリからキュレートされた大規模なデータセットであるSweLocを構築します。
SweRankは最先端の性能を達成し、従来のランキングモデルとコストの高いエージェントベースシステムの両方より優れていることを示す。
論文 参考訳(メタデータ) (2025-05-07T19:44:09Z) - New Dataset and Methods for Fine-Grained Compositional Referring Expression Comprehension via Specialist-MLLM Collaboration [49.180693704510006]
Referring Expression (REC) は、言語理解、画像理解、言語と画像の接点の相互作用を評価するためのクロスモーダルなタスクである。
MLLM(Multimodal Large Language Models)の試験場として機能する。
論文 参考訳(メタデータ) (2025-02-27T13:58:44Z) - In-context Demonstration Matters: On Prompt Optimization for Pseudo-Supervision Refinement [71.60563181678323]
大規模言語モデル(LLM)は様々なタスクで大きな成功を収めており、生成品質をさらに向上させるためには微調整が必要である場合もある。
これらの課題に対処する直接的な解決策は、教師なしの下流タスクから高信頼のデータを生成することである。
本稿では,プロンプトと全体的な擬似スーパービジョンを両立させる新しい手法,擬似教師付きデモアライメント・アライメント・アライメント・プロンプト・最適化(PAPO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-04T03:39:28Z) - Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More? [54.667202878390526]
長文言語モデル(LCLM)は、従来、検索システムやデータベースといった外部ツールに依存していたタスクへのアプローチに革命をもたらす可能性がある。
実世界のタスクのベンチマークであるLOFTを導入し、文脈内検索と推論においてLCLMの性能を評価するために設計された数百万のトークンを出力する。
以上の結果からLCLMは,これらのタスクを明示的に訓練したことがないにも関わらず,最先端の検索システムやRAGシステムと競合する驚くべき能力を示した。
論文 参考訳(メタデータ) (2024-06-19T00:28:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。