論文の概要: SwiftEmbed: Ultra-Fast Text Embeddings via Static Token Lookup for Real-Time Applications
- arxiv url: http://arxiv.org/abs/2510.24793v1
- Date: Mon, 27 Oct 2025 13:40:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:44.496513
- Title: SwiftEmbed: Ultra-Fast Text Embeddings via Static Token Lookup for Real-Time Applications
- Title(参考訳): SwiftEmbed: リアルタイムアプリケーションのための静的トークンルックアップによる超高速テキスト埋め込み
- Authors: Edouard Lansiaux,
- Abstract要約: Rustの実装は、静的埋め込みルックアップ、最適化された平均プール、ゼロコピーのIEEE754バイナリシリアライゼーションを通じて、毎秒50,000リクエストを提供する。
システムは、サブ5msレイテンシが重要となるリアルタイムの埋め込みアプリケーションを可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a static token lookup methodology for text embedding generation that achieves 1.12 ms p50 latency for single text embeddings while maintaining 60.6 MTEB average score across 8 representative tasks, corresponding to 89% of contextual model quality. The Rust implementation delivers 50,000 requests per second throughput through static embedding lookup, optimized mean pooling, and zero-copy IEEE754 binary serialization. Evaluation demonstrates exceptional duplicate detection performance (90.1% AP), strong semantic similarity (76.1% Spearman correlation), and domain-specific performance ranging from 75% to 131% of baseline across specialized domains. The system enables real-time embedding applications where sub-5ms latency is critical.
- Abstract(参考訳): 本研究では,テキスト埋め込みにおける1.12ms p50レイテンシを実現する静的トークン検索手法を提案する。
Rustの実装は、静的埋め込みルックアップ、最適化された平均プーリング、ゼロコピーのIEEE754バイナリシリアライゼーションを通じて、毎秒50,000リクエストを提供する。
評価は、例外的な重複検出性能(90.1% AP)、強い意味的類似性(76.1% Spearman相関)、およびドメイン固有の性能(75%から131%)を示す。
このシステムは、サブ5msレイテンシが重要なリアルタイム埋め込みアプリケーションを可能にする。
関連論文リスト
- A Comprehensive Forecasting-Based Framework for Time Series Anomaly Detection: Benchmarking on the Numenta Anomaly Benchmark (NAB) [0.0]
時系列異常検出は、現代のデジタルインフラにとって重要である。
本稿では,従来の手法をディープラーニングアーキテクチャと統合した予測ベースのフレームワークを提案する。
Numenta Anomaly Benchmark の最初の完全評価を行う。
論文 参考訳(メタデータ) (2025-10-13T08:31:42Z) - How Well Do LLMs Imitate Human Writing Style? [2.3754840025365183]
大規模言語モデル(LLM)は、流動的なテキストを生成することができるが、特定の人間の作者の独特のスタイルを再現する能力は、まだ不明である。
著者の検証とスタイルの模倣分析のための,高速かつトレーニング不要なフレームワークを提案する。
学術エッセイでは97.5%、クロスドメイン評価では94.5%の精度を達成している。
論文 参考訳(メタデータ) (2025-09-29T15:34:40Z) - SPGrasp: Spatiotemporal Prompt-driven Grasp Synthesis in Dynamic Scenes [9.743012211664574]
本研究では,ビデオストリームのグリップ推定のためのモデル v2SAMv2 を拡張した新しいフレームワーク SPGrasp を提案する。
我々のコアはユーザプロンプトをコンテキストと統合し、エンド・ツー・エンドの動的オブジェクトとのリアルタイムインタラクションを可能にします。
継続的なトラッキング下での挑戦的なGraspNet-1Billionデータセットでは、SPGraspはフレーム毎の73.1ミリ秒のレイテンシで92.0%の精度を実現している。
論文 参考訳(メタデータ) (2025-08-28T08:38:50Z) - Learning Adaptive Parallel Reasoning with Language Models [70.1745752819628]
本稿では,適応並列推論(Adaptive Parallel Reasoning, APR)を提案する。
APRは、spawn()とjoin()操作を使用して適応的なマルチスレッド推論を可能にすることで、既存の推論メソッドを一般化する。
鍵となる革新は、親と子の両方の推論スレッドを最適化して、事前に定義された推論構造を必要とせずにタスクの成功率を高める、エンドツーエンドの強化学習戦略である。
論文 参考訳(メタデータ) (2025-04-21T22:29:02Z) - YourBench: Easy Custom Evaluation Sets for Everyone [12.995134931278056]
YourBenchは、大規模言語モデル(LLM)を評価するための、新しいオープンソースのフレームワークである。
手動のアノテーションなしで、信頼性が高く、最新で、ドメインに適したベンチマークを安価に生成する。
我々はTemporaに基づくYourBenchライブラリ、Tempora-0325データセット、150k以上の質問応答ペア、およびすべての評価と推論トレースをリリースする。
論文 参考訳(メタデータ) (2025-04-02T15:40:24Z) - Align Your Prompts: Test-Time Prompting with Distribution Alignment for
Zero-Shot Generalization [64.62570402941387]
テスト領域のギャップを埋めるために、機能分散シフトを最小限にして、テスト時にマルチモーダルプロンプトを適用するために、単一のテストサンプルを使用します。
提案手法は,既存のプロンプト学習技術以上のゼロショットトップ1精度を向上し,ベースラインのMaPLeよりも3.08%向上した。
論文 参考訳(メタデータ) (2023-11-02T17:59:32Z) - Turning a CLIP Model into a Scene Text Spotter [73.63953542526917]
我々は,大規模コントラスト言語-画像事前学習(CLIP)モデルの可能性を活用し,シーンテキストの検出とスポッティング作業を強化する。
このバックボーンは、CLIPにおける視覚的プロンプト学習とクロスアテンションを利用して、画像とテキストベースの事前知識を抽出する。
FastTCM-CR50では、画像とテキストの埋め込みのシナジーを高めるために、インスタンス言語マッチングプロセスが導入されている。
論文 参考訳(メタデータ) (2023-08-21T01:25:48Z) - Listen Attentively, and Spell Once: Whole Sentence Generation via a
Non-Autoregressive Architecture for Low-Latency Speech Recognition [66.47000813920619]
我々はLASOと呼ばれる非自己回帰型エンドツーエンド音声認識システムを提案する。
非自己回帰性のため、LASOは他のトークンに依存することなくシーケンス内のテキストトークンを予測する。
我々は,中国における公開データセットAISHELL-1の実験を行った。
論文 参考訳(メタデータ) (2020-05-11T04:45:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。