論文の概要: T-VEC: A Telecom-Specific Vectorization Model with Enhanced Semantic Understanding via Deep Triplet Loss Fine-Tuning
- arxiv url: http://arxiv.org/abs/2504.16460v1
- Date: Wed, 23 Apr 2025 07:10:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.029974
- Title: T-VEC: A Telecom-Specific Vectorization Model with Enhanced Semantic Understanding via Deep Triplet Loss Fine-Tuning
- Title(参考訳): T-VEC:Deep Triplet Loss Fine-Tuningによるセマンティック理解を向上したテレコム特化ベクトル化モデル
- Authors: Vignesh Ethiraj, Sidhanth Menon, Divya Vijay,
- Abstract要約: 本稿では,T-VEC(Telecom Vectorization Model)を紹介する。
T-VECは三重項損失目標を用いて最先端のgte-Qwen2-1.5Bインストラクトモデルを適用することで生成される。
重要な貢献は、最初の専用のテレコム固有のトークンライザの開発とオープンソース化である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The specialized vocabulary and complex concepts of the telecommunications industry present significant challenges for standard Natural Language Processing models. Generic text embeddings often fail to capture telecom-specific semantics, hindering downstream task performance. We introduce T-VEC (Telecom Vectorization Model), a novel embedding model tailored for the telecom domain through deep fine-tuning. Developed by NetoAI, T-VEC is created by adapting the state-of-the-art gte-Qwen2-1.5B-instruct model using a triplet loss objective on a meticulously curated, large-scale dataset of telecom-specific data. Crucially, this process involved substantial modification of weights across 338 layers of the base model, ensuring deep integration of domain knowledge, far exceeding superficial adaptation techniques. We quantify this deep change via weight difference analysis. A key contribution is the development and open-sourcing (MIT License) of the first dedicated telecom-specific tokenizer, enhancing the handling of industry jargon. T-VEC achieves a leading average MTEB score (0.825) compared to established models and demonstrates vastly superior performance (0.9380 vs. less than 0.07) on our internal telecom-specific triplet evaluation benchmark, indicating an exceptional grasp of domain-specific nuances, visually confirmed by improved embedding separation. This work positions NetoAI at the forefront of telecom AI innovation, providing the community with a powerful, deeply adapted, open-source tool.
- Abstract(参考訳): 電気通信産業の専門用語と複雑な概念は、標準自然言語処理モデルに重大な課題をもたらす。
ジェネリックテキストの埋め込みは、しばしばテレコム固有のセマンティクスをキャプチャするのに失敗し、下流のタスクのパフォーマンスを阻害する。
本稿では,T-VEC(Telecom Vectorization Model)を紹介する。
NetoAIによって開発されたT-VECは、細心の注意を払ってキュレートされた大規模なテレコム固有データのデータセットに対して、三重項損失目標を用いて最先端のgte-Qwen2-1.5Bインストラクトモデルを適用することによって生成される。
重要なことに、このプロセスは、ベースモデルの338層にわたる重みをかなり修正し、ドメイン知識の深い統合を保証し、表面的適応技術をはるかに超えた。
重量差解析により、この深い変化を定量化する。
主要な貢献は、最初の専用のテレコム固有のトークンライザの開発とオープンソース化であり、業界ジャーゴンの取り扱いを強化することである。
T-VEC は既存のモデルと比較して平均 MTEB スコア (0.825) を達成し, 内部テレコム比三重項評価ベンチマークにおいて非常に優れた性能 (0.9380 vs. 0.07) を示した。
この作業は、NetoAIをテレコムAIイノベーションの最前線に置き、コミュニティに強力で深く適応されたオープンソースツールを提供する。
関連論文リスト
- Bisecting K-Means in RAG for Enhancing Question-Answering Tasks Performance in Telecommunications [0.0]
本研究は,遠隔通信領域用に明示的に設計された新しい検索・拡張生成フレームワークを提案する。
このフレームワークは、Bisecting K-Meansクラスタリング技術を用いて、埋め込みベクターをコンテンツによって整理し、より効率的な情報検索を容易にする。
このフレームワークはSmall Language Modelsを用いてテストされ、フィ-2では66.12%、フィ-3では72.13%の精度で性能が向上した。
論文 参考訳(メタデータ) (2025-02-27T15:23:18Z) - AI-in-the-Loop Sensing and Communication Joint Design for Edge Intelligence [65.29835430845893]
本稿では,AI-in-the-loopジョイントセンシングと通信によるエッジインテリジェンス向上のためのフレームワークを提案する。
私たちの研究の重要な貢献は、バリデーション損失とシステムのチューニング可能なパラメータとの間に明確な関係を確立することです。
提案手法は, 通信エネルギー消費を最大77%削減し, 試料数で測定した検知コストを最大52%削減する。
論文 参考訳(メタデータ) (2025-02-14T14:56:58Z) - Tele-LLMs: A Series of Specialized Large Language Models for Telecommunications [20.36003316123051]
我々は,通信に適した1Bパラメータから8Bパラメータまで,最初の言語モデルであるTele-LLMsを開発し,オープンソース化した。
評価の結果,これらのモデルはTele-Evalの汎用モデルよりも優れており,これまでに獲得した能力を維持していることがわかった。
論文 参考訳(メタデータ) (2024-09-09T03:58:51Z) - Enhancing Customer Churn Prediction in Telecommunications: An Adaptive Ensemble Learning Approach [0.0]
本稿では,高精度な顧客チャーン予測のための適応型アンサンブル学習フレームワークを提案する。
このフレームワークは、XGBoost、LightGBM、LSTM、Multi-Layer Perceptron(MLP)ニューラルネットワーク、Support Vector Machine(SVM)など、複数のベースモデルを統合する。
この研究は99.28%の精度を達成し、チャーン予測の大きな進歩を示している。
論文 参考訳(メタデータ) (2024-08-29T06:27:42Z) - CodingTeachLLM: Empowering LLM's Coding Ability via AST Prior Knowledge [0.0]
我々は,コーディング学習用に設計された大規模言語モデル(LLM)であるCodingTeachLLMを紹介する。
本モデルは,学習知識の構造的分解と漸進的指導によるアウトプットを実現する。
当社のモデルは,オープンソースモデルと比較して,コード能力の最先端性も達成している。
論文 参考訳(メタデータ) (2024-03-13T05:38:39Z) - Toward 6G Native-AI Network: Foundation Model based Cloud-Edge-End Collaboration Framework [55.73948386625618]
データ、AIモデル、運用パラダイムの観点から、6GネイティブAIを達成する上での課題を分析します。
基礎モデルに基づく6GネイティブAIフレームワークを提案し、専門家の知識の統合方法を提供し、2種類のPFMのカスタマイズを提示し、ネイティブAIフレームワークの新たな運用パラダイムを概説する。
論文 参考訳(メタデータ) (2023-10-26T15:19:40Z) - Understanding Telecom Language Through Large Language Models [3.947298454012977]
大規模言語モデル(LLM)は、自己管理された対話型AIエージェントを実現するための基盤であると考えられている。
本稿では,LLMのパラダイムをテレコム領域に適用する。
我々は, BERT, 蒸留BERT, RoBERTa, GPT-2 などいくつかの LLM を Telecom ドメイン言語に微調整する。
論文 参考訳(メタデータ) (2023-06-09T15:44:41Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - DepthFormer: Exploiting Long-Range Correlation and Local Information for
Accurate Monocular Depth Estimation [50.08080424613603]
高精度な単分子深度推定には長距離相関が不可欠である。
我々は,このグローバルコンテキストを効果的な注意機構でモデル化するためにTransformerを活用することを提案する。
提案したモデルであるDepthFormerは、最先端のモノクル深度推定手法をはるかに超えている。
論文 参考訳(メタデータ) (2022-03-27T05:03:56Z) - Transforming Model Prediction for Tracking [109.08417327309937]
トランスフォーマーは、誘導バイアスの少ないグローバルな関係を捉え、より強力なターゲットモデルの予測を学ぶことができる。
提案したトラッカーをエンドツーエンドにトレーニングし、複数のトラッカーデータセットに関する総合的な実験を行うことで、その性能を検証する。
我々のトラッカーは3つのベンチマークで新しい技術状態を設定し、挑戦的なLaSOTデータセットで68.5%のAUCを達成した。
論文 参考訳(メタデータ) (2022-03-21T17:59:40Z) - Consistency and Monotonicity Regularization for Neural Knowledge Tracing [50.92661409499299]
人間の知識獲得を追跡する知識追跡(KT)は、オンライン学習と教育におけるAIの中心的なコンポーネントです。
本稿では, 新たなデータ拡張, 代替, 挿入, 削除の3種類と, 対応する正規化損失を提案する。
さまざまなKTベンチマークに関する広範な実験は、私たちの正規化スキームがモデルのパフォーマンスを一貫して改善することを示しています。
論文 参考訳(メタデータ) (2021-05-03T02:36:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。