論文の概要: T-VEC: A Telecom-Specific Vectorization Model with Enhanced Semantic Understanding via Deep Triplet Loss Fine-Tuning
- arxiv url: http://arxiv.org/abs/2504.16460v2
- Date: Thu, 09 Oct 2025 15:34:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 15:34:28.443491
- Title: T-VEC: A Telecom-Specific Vectorization Model with Enhanced Semantic Understanding via Deep Triplet Loss Fine-Tuning
- Title(参考訳): T-VEC:Deep Triplet Loss Fine-Tuningによるセマンティック理解を向上したテレコム特化ベクトル化モデル
- Authors: Vignesh Ethiraj, Ashwath David, Sidhanth Menon, Divya Vijay, Vidhyakshaya Kannan,
- Abstract要約: 本稿では,Gte-Qwen2-1.5B-インストラクトバックボーンを微調整したドメイン適応埋め込みモデルであるT-VECについて述べる。
T-VECはMPNet, BGE, Jina, E5を超越し, テレコム固有の検索において, 優れたドメイン基盤とセマンティック精度を示す。
我々はT-VECとそのトークン化ツールをリリースし、テレコムドメイン内で意味的に忠実なNLPアプリケーションをサポートする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The specialized vocabulary and nuanced concepts of the telecommunications industry pose persistent challenges for standard Natural Language Processing (NLP) models. Generic embedding models often struggle to represent telecom-specific semantics, limiting their utility in retrieval and downstream tasks. We present T-VEC (Telecom Vectorization Model), a domain-adapted embedding model fine-tuned from the gte-Qwen2-1.5B-instruct backbone using a triplet loss objective. Fine-tuning was performed on T-Embed, a high-quality, large-scale dataset covering diverse telecom concepts, standards, and operational scenarios. Although T-Embed contains some proprietary material and cannot be fully released, we open source 75% of the dataset to support continued research in domain-specific representation learning. On a custom benchmark comprising 1500 query-passage pairs from IETF RFCs and vendor manuals, T-VEC surpasses MPNet, BGE, Jina and E5, demonstrating superior domain grounding and semantic precision in telecom-specific retrieval. Embedding visualizations further showcase tight clustering of telecom-relevant concepts. We release T-VEC and its tokenizer to support semantically faithful NLP applications within the telecom domain.
- Abstract(参考訳): 電気通信業界の特殊語彙とニュアンスの概念は、標準自然言語処理(NLP)モデルに永続的な課題をもたらす。
ジェネリック埋め込みモデルは、しばしばテレコム固有の意味論を表現するのに苦労し、検索や下流のタスクにおいてその実用性を制限する。
本稿では,3重項損失目標を用いたGte-Qwen2-1.5Bインストラクトバックボーンを微調整したドメイン適応埋め込みモデルT-VECを提案する。
T-Embedは、さまざまなテレコムの概念、標準、運用シナリオをカバーする高品質で大規模なデータセットである。
T-Embedにはプロプライエタリな素材がいくつか含まれており、完全なリリースはできないが、ドメイン固有の表現学習における継続的な研究を支援するために、データセットの75%をオープンソースにしている。
IETF RFCとベンダーマニュアルから1500のクエリパスペアからなるカスタムベンチマークで、T-VECはMPNet、BGE、Jina、E5を上回り、テレコム固有の検索において優れたドメイン基盤とセマンティック精度を示す。
埋め込み視覚化はさらに、テレコム関連概念の密集したクラスタリングを示している。
我々はT-VECとそのトークン化ツールをリリースし、テレコムドメイン内で意味的に忠実なNLPアプリケーションをサポートする。
関連論文リスト
- KAT-V1: Kwai-AutoThink Technical Report [50.84483585850113]
Kwaipilot-AutoThink (KAT) はオープンソースの40B大言語モデルであり、推論集約タスクにおける過大な問題に対処するために開発された。
KATはタスクの複雑さに基づいて推論モードと非推論モードを動的に切り替える。
また、GRPOフレームワークに中間管理を組み込んだ強化学習アルゴリズムであるStep-SRPOを提案する。
論文 参考訳(メタデータ) (2025-07-11T04:07:10Z) - NAP-Tuning: Neural Augmented Prompt Tuning for Adversarially Robust Vision-Language Models [72.58372335140241]
AdvPT(Adversarial Prompt Tuning)は、視覚言語モデル(VLM)における対向的ロバスト性を高めるための学習可能なテキストプロンプトを導入した。
マルチモーダル適応型プロンプトチューニング(NAP-Tuning)のためのニューラルネットワークフレームワークを提案する。
我々のアプローチは、挑戦的なAutoAttackベンチマークの下で最強のベースラインよりも大幅に改善され、ViT-B16では33.5%、ViT-B32アーキテクチャでは33.0%を上回りました。
論文 参考訳(メタデータ) (2025-06-15T03:34:23Z) - Understanding 6G through Language Models: A Case Study on LLM-aided Structured Entity Extraction in Telecom Domain [55.627646392044824]
本研究では,テレコムの文脈から構造化されたエンティティを抽出することを目的とした,新しい言語モデルに基づく情報抽出手法を提案する。
提案するテレコム構造化エンティティ抽出(TeleSEE)技術は,エンティティタイプと属性キーの予測にトークン効率のよい表現手法を適用し,出力トークンの数を削減し,予測精度を向上させることを目的とする。
論文 参考訳(メタデータ) (2025-05-20T21:00:08Z) - Bisecting K-Means in RAG for Enhancing Question-Answering Tasks Performance in Telecommunications [0.0]
本研究は,遠隔通信領域用に明示的に設計された新しい検索・拡張生成フレームワークを提案する。
このフレームワークは、Bisecting K-Meansクラスタリング技術を用いて、埋め込みベクターをコンテンツによって整理し、より効率的な情報検索を容易にする。
このフレームワークはSmall Language Modelsを用いてテストされ、フィ-2では66.12%、フィ-3では72.13%の精度で性能が向上した。
論文 参考訳(メタデータ) (2025-02-27T15:23:18Z) - AI-in-the-Loop Sensing and Communication Joint Design for Edge Intelligence [65.29835430845893]
本稿では,AI-in-the-loopジョイントセンシングと通信によるエッジインテリジェンス向上のためのフレームワークを提案する。
私たちの研究の重要な貢献は、バリデーション損失とシステムのチューニング可能なパラメータとの間に明確な関係を確立することです。
提案手法は, 通信エネルギー消費を最大77%削減し, 試料数で測定した検知コストを最大52%削減する。
論文 参考訳(メタデータ) (2025-02-14T14:56:58Z) - Tele-LLMs: A Series of Specialized Large Language Models for Telecommunications [20.36003316123051]
我々は,通信に適した1Bパラメータから8Bパラメータまで,最初の言語モデルであるTele-LLMsを開発し,オープンソース化した。
評価の結果,これらのモデルはTele-Evalの汎用モデルよりも優れており,これまでに獲得した能力を維持していることがわかった。
論文 参考訳(メタデータ) (2024-09-09T03:58:51Z) - Enhancing Customer Churn Prediction in Telecommunications: An Adaptive Ensemble Learning Approach [0.0]
本稿では,高精度な顧客チャーン予測のための適応型アンサンブル学習フレームワークを提案する。
このフレームワークは、XGBoost、LightGBM、LSTM、Multi-Layer Perceptron(MLP)ニューラルネットワーク、Support Vector Machine(SVM)など、複数のベースモデルを統合する。
この研究は99.28%の精度を達成し、チャーン予測の大きな進歩を示している。
論文 参考訳(メタデータ) (2024-08-29T06:27:42Z) - CodingTeachLLM: Empowering LLM's Coding Ability via AST Prior Knowledge [0.0]
我々は,コーディング学習用に設計された大規模言語モデル(LLM)であるCodingTeachLLMを紹介する。
本モデルは,学習知識の構造的分解と漸進的指導によるアウトプットを実現する。
当社のモデルは,オープンソースモデルと比較して,コード能力の最先端性も達成している。
論文 参考訳(メタデータ) (2024-03-13T05:38:39Z) - Toward 6G Native-AI Network: Foundation Model based Cloud-Edge-End Collaboration Framework [55.73948386625618]
データ、AIモデル、運用パラダイムの観点から、6GネイティブAIを達成する上での課題を分析します。
基礎モデルに基づく6GネイティブAIフレームワークを提案し、専門家の知識の統合方法を提供し、2種類のPFMのカスタマイズを提示し、ネイティブAIフレームワークの新たな運用パラダイムを概説する。
論文 参考訳(メタデータ) (2023-10-26T15:19:40Z) - Understanding Telecom Language Through Large Language Models [3.947298454012977]
大規模言語モデル(LLM)は、自己管理された対話型AIエージェントを実現するための基盤であると考えられている。
本稿では,LLMのパラダイムをテレコム領域に適用する。
我々は, BERT, 蒸留BERT, RoBERTa, GPT-2 などいくつかの LLM を Telecom ドメイン言語に微調整する。
論文 参考訳(メタデータ) (2023-06-09T15:44:41Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - DepthFormer: Exploiting Long-Range Correlation and Local Information for
Accurate Monocular Depth Estimation [50.08080424613603]
高精度な単分子深度推定には長距離相関が不可欠である。
我々は,このグローバルコンテキストを効果的な注意機構でモデル化するためにTransformerを活用することを提案する。
提案したモデルであるDepthFormerは、最先端のモノクル深度推定手法をはるかに超えている。
論文 参考訳(メタデータ) (2022-03-27T05:03:56Z) - Transforming Model Prediction for Tracking [109.08417327309937]
トランスフォーマーは、誘導バイアスの少ないグローバルな関係を捉え、より強力なターゲットモデルの予測を学ぶことができる。
提案したトラッカーをエンドツーエンドにトレーニングし、複数のトラッカーデータセットに関する総合的な実験を行うことで、その性能を検証する。
我々のトラッカーは3つのベンチマークで新しい技術状態を設定し、挑戦的なLaSOTデータセットで68.5%のAUCを達成した。
論文 参考訳(メタデータ) (2022-03-21T17:59:40Z) - Consistency and Monotonicity Regularization for Neural Knowledge Tracing [50.92661409499299]
人間の知識獲得を追跡する知識追跡(KT)は、オンライン学習と教育におけるAIの中心的なコンポーネントです。
本稿では, 新たなデータ拡張, 代替, 挿入, 削除の3種類と, 対応する正規化損失を提案する。
さまざまなKTベンチマークに関する広範な実験は、私たちの正規化スキームがモデルのパフォーマンスを一貫して改善することを示しています。
論文 参考訳(メタデータ) (2021-05-03T02:36:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。