論文の概要: Semantic Search At LinkedIn
- arxiv url: http://arxiv.org/abs/2602.07309v1
- Date: Sat, 07 Feb 2026 01:59:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.56662
- Title: Semantic Search At LinkedIn
- Title(参考訳): LinkedInのセマンティック検索
- Authors: Fedor Borisyuk, Sriram Vasudevan, Muchen Wu, Guoyao Li, Benjamin Le, Shaobo Zhang, Qianqi Kay Shen, Yuchin Juan, Kayhan Behdin, Liming Dong, Kaixu Yang, Shusen Jing, Ravi Pothamsetty, Rajat Arora, Sophie Yanying Sheng, Vitaly Abdrashitov, Yang Zhao, Lin Su, Xiaoqing Wang, Chujie Zheng, Sarang Metkar, Rupesh Gupta, Igor Lapchuk, David N. Racca, Madhumitha Mohan, Yanbo Li, Haojun Li, Saloni Gandhi, Xueying Lu, Chetan Bhole, Ali Hooshmand, Xin Yang, Raghavan Muthuregunathan, Jiajun Zhang, Mathew Teoh, Adam Coler, Abhinav Gupta, Xiaojing Ma, Sundara Raman Ramachandran, Morteza Ramezani, Yubo Wang, Lijuan Zhang, Richard Li, Jian Sheng, Chanh Nguyen, Yen-Chi Chen, Chuanrui Zhu, Claire Zhang, Jiahao Xu, Deepti Kulkarni, Qing Lan, Arvind Subramaniam, Ata Fatahibaarzi, Steven Shimizu, Yanning Chen, Zhipeng Wang, Ran He, Zhengze Zhou, Qingquan Song, Yun Dai, Caleb Johnson, Ping Liu, Shaghayegh Gharghabi, Gokulraj Mohanasundaram, Juan Bottaro, Santhosh Sachindran, Qi Guo, Yunxiang Ren, Chengming Jiang, Di Mo, Luke Simon, Jianqiang Shen, Jingwei Wu, Wenjing Zhang,
- Abstract要約: 我々は、LinkedInのLLMベースのAIジョブサーチとAIピープルサーチのためのセマンティックサーチフレームワークを提示する。
プリフィル指向の推論アーキテクチャは、固定遅延制約の下でランキングのスループットを75倍以上に向上させる。
最初のLLMベースのランキングシステムの一つで、効率は従来のアプローチに匹敵する。
- 参考スコア(独自算出の注目度): 43.73483845395182
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semantic search with large language models (LLMs) enables retrieval by meaning rather than keyword overlap, but scaling it requires major inference efficiency advances. We present LinkedIn's LLM-based semantic search framework for AI Job Search and AI People Search, combining an LLM relevance judge, embedding-based retrieval, and a compact Small Language Model trained via multi-teacher distillation to jointly optimize relevance and engagement. A prefill-oriented inference architecture co-designed with model pruning, context compression, and text-embedding hybrid interactions boosts ranking throughput by over 75x under a fixed latency constraint while preserving near-teacher-level NDCG, enabling one of the first production LLM-based ranking systems with efficiency comparable to traditional approaches and delivering significant gains in quality and user engagement.
- Abstract(参考訳): 大規模言語モデル(LLM)を用いた意味探索はキーワード重複ではなく意味による検索を可能にするが,拡張には推論効率の大幅な向上が必要である。
我々は、LLM関連判断、埋め込みベースの検索、およびマルチティーチンガー蒸留により訓練されたコンパクトな小言語モデルを組み合わせて、関連性とエンゲージメントを共同で最適化する、LinkedInのLLMベースのAIジョブ検索とAIピープル検索のためのセマンティック検索フレームワークを提示する。
モデルプルーニング、コンテキスト圧縮、テキスト埋め込みハイブリッドインタラクションを共設計したプレフィル指向の推論アーキテクチャは、教師レベルのNDCGを維持しながら、一定のレイテンシ制約の下でランキングスループットを75倍に向上させ、従来のアプローチに匹敵する効率のLLMベースのランキングシステムの一つを可能にし、品質とユーザエンゲージメントの大幅な向上を実現している。
関連論文リスト
- LLM-guided Hierarchical Retrieval [54.73080745446999]
LATTICEは階層的な検索フレームワークであり、LLMは対数探索の複雑さで大きなコーパスを推論し、ナビゲートすることができる。
LLM誘導探索における中心的な課題は、モデルの関連性判断がノイズが多く、文脈に依存し、階層性に気付かないことである。
我々のフレームワークは、推論集約型BRIGHTベンチマークで最先端のゼロショット性能を実現する。
論文 参考訳(メタデータ) (2025-10-15T07:05:17Z) - KROMA: Ontology Matching with Knowledge Retrieval and Large Language Models [5.405036373673608]
KROMAはLarge Language Models(LLM)をRetrieval-Augmented Generationパイプライン内で利用する新しいフレームワークである。
性能と効率の両面を最適化するために、KROMAは二相性に基づく概念マッチングと軽量なオントロジー改善ステップを統合している。
論文 参考訳(メタデータ) (2025-07-18T16:00:11Z) - LLM with Relation Classifier for Document-Level Relation Extraction [25.587850398830252]
大規模言語モデル(LLM)は、自然言語処理のための新しいパラダイムを生み出した。
本稿では,この性能ギャップの原因を解明し,関係のないエンティティペアによるLCMによる注意の分散を重要要因とする。
論文 参考訳(メタデータ) (2024-08-25T16:43:19Z) - CART: A Generative Cross-Modal Retrieval Framework with Coarse-To-Fine Semantic Modeling [53.97609687516371]
クロスモーダル検索は、異なるモーダルデータの相互作用を通じて、クエリと意味的に関連するインスタンスを検索することを目的としている。
従来のソリューションでは、クエリと候補の間のスコアを明示的に計算するために、シングルトウワーまたはデュアルトウワーのフレームワークを使用している。
粗大なセマンティックモデリングに基づく生成的クロスモーダル検索フレームワーク(CART)を提案する。
論文 参考訳(メタデータ) (2024-06-25T12:47:04Z) - Text-Video Retrieval with Global-Local Semantic Consistent Learning [122.15339128463715]
我々は,シンプルで効果的なグローバル局所意味的一貫性学習(GLSCL)を提案する。
GLSCLは、テキストビデオ検索のためのモダリティをまたいだ潜在共有セマンティクスを活用する。
本手法はSOTAと同等の性能を実現し,計算コストの約220倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-05-21T11:59:36Z) - AutoKG: Efficient Automated Knowledge Graph Generation for Language
Models [9.665916299598338]
AutoKGは、知識グラフの自動構築のための軽量で効率的なアプローチである。
予備実験により、AutoKGはより包括的で相互接続された知識検索メカニズムを提供することが示された。
論文 参考訳(メタデータ) (2023-11-22T08:58:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。