論文の概要: Powering Job Search at Scale: LLM-Enhanced Query Understanding in Job Matching Systems
- arxiv url: http://arxiv.org/abs/2509.09690v1
- Date: Tue, 19 Aug 2025 21:35:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-21 06:05:45.719917
- Title: Powering Job Search at Scale: LLM-Enhanced Query Understanding in Job Matching Systems
- Title(参考訳): 大規模ジョブ検索の活用: ジョブマッチングシステムにおけるLLM強化クエリ理解
- Authors: Ping Liu, Jianqiang Shen, Qianqi Shen, Chunnan Yao, Kevin Kao, Dan Xu, Rajat Arora, Baofen Zheng, Caleb Johnson, Liangjie Hong, Jingwei Wu, Wenjing Zhang,
- Abstract要約: LLM(Large Language Model)を利用した統合クエリ理解フレームワークを提案する。
提案手法は,ユーザクエリとプロファイル属性などのコンテキスト信号とを共同でモデル化し,構造化された解釈を生成する。
このフレームワークは、オンラインA/Bテストにおける関連品質を改善し、システムの複雑さを著しく低減する。
- 参考スコア(独自算出の注目度): 10.9341814749217
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Query understanding is essential in modern relevance systems, where user queries are often short, ambiguous, and highly context-dependent. Traditional approaches often rely on multiple task-specific Named Entity Recognition models to extract structured facets as seen in job search applications. However, this fragmented architecture is brittle, expensive to maintain, and slow to adapt to evolving taxonomies and language patterns. In this paper, we introduce a unified query understanding framework powered by a Large Language Model (LLM), designed to address these limitations. Our approach jointly models the user query and contextual signals such as profile attributes to generate structured interpretations that drive more accurate and personalized recommendations. The framework improves relevance quality in online A/B testing while significantly reducing system complexity and operational overhead. The results demonstrate that our solution provides a scalable and adaptable foundation for query understanding in dynamic web applications.
- Abstract(参考訳): クエリの理解は、ユーザクエリが短く、曖昧で、コンテキストに依存しやすい近代的な関連システムにおいて不可欠である。
従来のアプローチでは、ジョブ検索アプリケーションで見られるような構造化されたファセットを抽出するために、複数のタスク固有の名前付きエンティティ認識モデルに依存することが多い。
しかし、この断片化されたアーキテクチャは脆く、メンテナンスに費用がかかり、進化する分類体系や言語パターンに適応するのに時間がかかる。
本稿では,これらの制約に対処するために,Large Language Model (LLM) を利用した統合クエリ理解フレームワークを提案する。
提案手法はユーザクエリとプロファイル属性などのコンテキストシグナルを併用して,より正確かつパーソナライズされたレコメンデーションを実現する構造的解釈を生成する。
このフレームワークは、オンラインA/Bテストの関連品質を改善し、システムの複雑さと運用上のオーバーヘッドを大幅に低減します。
その結果、我々のソリューションは動的Webアプリケーションにおけるクエリ理解のためのスケーラブルで適応可能な基盤を提供することを示した。
関連論文リスト
- Reasoning-enhanced Query Understanding through Decomposition and Interpretation [130.19204432111277]
ReDIは、分解と解釈によるクエリ理解のための推論強化アプローチである。
我々は,大規模検索エンジンから実世界の複雑なクエリの大規模データセットをコンパイルした。
BRIGHT と BEIR の実験により、ReDI はスパースと密度の高い検索パラダイムの両方において、強いベースラインを一貫して超えることを示した。
論文 参考訳(メタデータ) (2025-09-08T10:58:42Z) - Tree-Based Text Retrieval via Hierarchical Clustering in RAGFrameworks: Application on Taiwanese Regulations [0.0]
階層的なクラスタリングに基づく検索手法を提案する。
本手法は,意味的関連コンテンツを適応的に選択しながら,システム応答の精度と関連性を維持する。
我々のフレームワークは実装が簡単で、既存のRAGパイプラインと簡単に統合できます。
論文 参考訳(メタデータ) (2025-06-16T15:34:29Z) - CLEAR-KGQA: Clarification-Enhanced Ambiguity Resolution for Knowledge Graph Question Answering [13.624962763072899]
KGQAシステムは通常、ユーザクエリは曖昧であると仮定するが、これは現実世界のアプリケーションではめったに行われない仮定である。
本稿では,対話的明確化を通じて,エンティティのあいまいさ(類似した名前を持つエンティティの区別など)と意図のあいまいさ(ユーザクエリの異なる解釈を明確にするなど)を動的に扱う新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-13T17:34:35Z) - QID: Efficient Query-Informed ViTs in Data-Scarce Regimes for OCR-free Visual Document Understanding [53.69841526266547]
トレーニング済みのVision-Language Modelを新しいデータセットで微調整することは、ビジョンエンコーダの最適化に不足することが多い。
視覚エンコーダにクエリの埋め込みを統合する,新しい,合理化されたアーキテクチャ保存アプローチであるQIDを導入する。
論文 参考訳(メタデータ) (2025-04-03T18:47:16Z) - Augmented Knowledge Graph Querying leveraging LLMs [2.5311562666866494]
我々は、知識グラフ(KG)のクエリを強化するフレームワークであるSparqLLMを紹介する。
SparqLLMは、生データからKGを構築するために、Extract, Transform, and Load (ETL)パイプラインを実行する。
また、Large Language Models(LLMs)を利用した自然言語インターフェースを備え、自動SPARQLクエリ生成を実現している。
論文 参考訳(メタデータ) (2025-02-03T12:18:39Z) - Improving Retrieval in Sponsored Search by Leveraging Query Context Signals [6.152499434499752]
本稿では,クエリをリッチなコンテキスト信号で拡張することで,クエリ理解を強化する手法を提案する。
我々は、Web検索のタイトルとスニペットを使って、現実世界の情報にクエリを接地し、GPT-4を使ってクエリの書き直しと説明を生成する。
我々の文脈認識アプローチは文脈自由モデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2024-07-19T14:28:53Z) - UQE: A Query Engine for Unstructured Databases [71.49289088592842]
構造化されていないデータ分析を可能にするために,大規模言語モデルの可能性を検討する。
本稿では,非構造化データ収集からの洞察を直接問合せ,抽出するUniversal Query Engine (UQE)を提案する。
論文 参考訳(メタデータ) (2024-06-23T06:58:55Z) - Adaptive-RAG: Learning to Adapt Retrieval-Augmented Large Language Models through Question Complexity [59.57065228857247]
Retrieval-augmented Large Language Models (LLMs) は、質問回答(QA)のようなタスクにおける応答精度を高めるための有望なアプローチとして登場した。
本稿では,クエリの複雑さに基づいて,LLMの最適戦略を動的に選択できる適応型QAフレームワークを提案する。
オープンドメインのQAデータセットを用いて、複数のクエリの複雑さを網羅し、QAシステムの全体的な効率性と精度を高めることを示す。
論文 参考訳(メタデータ) (2024-03-21T13:52:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。