論文の概要: NEFMind: Parameter-Efficient Fine-Tuning of Open-Source LLMs for Telecom APIs Automation
- arxiv url: http://arxiv.org/abs/2508.09240v1
- Date: Tue, 12 Aug 2025 15:03:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.647398
- Title: NEFMind: Parameter-Efficient Fine-Tuning of Open-Source LLMs for Telecom APIs Automation
- Title(参考訳): NEFMind: テレコムAPI自動化のためのオープンソースのLLMのパラメータ効率の良い微調整
- Authors: Zainab Khan, Ahmed Hussain, Mukesh Thakur, Arto Hellas, Panos Papadimitratos,
- Abstract要約: 現代の電気通信におけるサービスベースアーキテクチャの利用は、ネットワーク機能(NF)とアプリケーションプログラミングインタフェース(API)を指数関数的に増加させてきた。
textitNEFMindは、オープンソースのLarge Language Models (LLMs) のパラメータ効率の良い微調整を利用した、これらの課題に対処するフレームワークである。
- 参考スコア(独自算出の注目度): 3.240093565705457
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The use of Service-Based Architecture in modern telecommunications has exponentially increased Network Functions (NFs) and Application Programming Interfaces (APIs), creating substantial operational complexities in service discovery and management. We introduce \textit{NEFMind}, a framework leveraging parameter-efficient fine-tuning of open-source Large Language Models (LLMs) to address these challenges. It integrates three core components: synthetic dataset generation from Network Exposure Function (NEF) API specifications, model optimization through Quantized-Low-Rank Adaptation, and performance evaluation via GPT-4 Ref Score and BertScore metrics. Targeting 5G Service-Based Architecture APIs, our approach achieves 85% reduction in communication overhead compared to manual discovery methods. Experimental validation using the open-source Phi-2 model demonstrates exceptional API call identification performance at 98-100% accuracy. The fine-tuned Phi-2 model delivers performance comparable to significantly larger models like GPT-4 while maintaining computational efficiency for telecommunications infrastructure deployment. These findings validate domain-specific, parameter-efficient LLM strategies for managing complex API ecosystems in next-generation telecommunications networks.
- Abstract(参考訳): 現代の電気通信におけるサービスベースアーキテクチャの利用は、ネットワーク機能(NF)とアプリケーションプログラミングインターフェース(API)を指数関数的に増加させ、サービスディスカバリと管理において相当な運用上の複雑さを生み出しました。
この課題に対処するために、オープンソースのLarge Language Models (LLM) のパラメータ効率の高い微調整を利用するフレームワークである。
Network Exposure Function (NEF) API仕様からの合成データセット生成、Quantized-Low-Rank Adaptationによるモデル最適化、GPT-4 Ref ScoreとBertScoreメトリクスによるパフォーマンス評価である。
5GサービスベースのアーキテクチャAPIをターゲットにして,手作業による発見手法と比較して,通信オーバーヘッドの85%削減を実現している。
オープンソースのPhi-2モデルを用いた実験的検証は、98-100%の精度で例外的なAPI呼び出し識別性能を示す。
微調整されたPhi-2モデルは、GPT-4のようなかなり大きなモデルに匹敵する性能を提供すると同時に、通信インフラの配置の計算効率も維持する。
これらの結果は,次世代通信ネットワークにおける複雑なAPIエコシステムを管理するためのドメイン固有かつパラメータ効率の高いLCM戦略を検証する。
関連論文リスト
- Efficient Telecom Specific LLM: TSLAM-Mini with QLoRA and Digital Twin Data [0.0]
汎用大規模言語モデル (LLM) は、リアルタイム通信アプリケーションにおいて、しばしば準最適性能を示す。
本研究では,ネトカイが開発したTSLAM-Miniの微調整により,この限界に対処する。
論文 参考訳(メタデータ) (2025-05-10T12:28:47Z) - EffOWT: Transfer Visual Language Models to Open-World Tracking Efficiently and Effectively [60.48750788231384]
Open-World Tracking (OWT) は,任意のカテゴリのすべてのオブジェクトを追跡することを目的としている。
EffOWTは未知のカテゴリの追跡基準OWTAで5.5%の絶対的なゲインを達成するが、完全な微調整に比べてパラメータの1.3%しか更新しない。
論文 参考訳(メタデータ) (2025-04-07T14:47:58Z) - ZeroLM: Data-Free Transformer Architecture Search for Language Models [54.83882149157548]
現在の自動プロキシ発見アプローチは、検索時間の拡張、データの過度なオーバーフィットへの感受性、構造的な複雑さに悩まされている。
本稿では,効率的な重み統計によるモデルキャパシティの定量化を目的とした,新しいゼロコストプロキシ手法を提案する。
本評価は,FlexiBERT ベンチマークで Spearman's rho 0.76 と Kendall's tau 0.53 を達成し,このアプローチの優位性を示すものである。
論文 参考訳(メタデータ) (2025-03-24T13:11:22Z) - Leveraging Fine-Tuned Retrieval-Augmented Generation with Long-Context Support: For 3GPP Standards [4.334100270812517]
大型言語モデル(LLM)は電気通信の技術的標準と競合する。
Phi-2小言語モデル(SLM)に基づく細調整検索拡張生成(RAG)システムを提案する。
本実験は,通信分野における既存の質問応答手法よりも大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2024-08-21T17:00:05Z) - SpaFL: Communication-Efficient Federated Learning with Sparse Models and Low computational Overhead [75.87007729801304]
SpaFL: 計算オーバーヘッドの少ないスパースモデル構造を最適化する通信効率のよいFLフレームワークを提案する。
プルーニングプロセス自体を最適化するためには、パラメータの代わりにサーバとクライアントの間でしきい値だけが通信される。
グローバルしきい値は、集約されたパラメータの重要度を抽出することで、モデルパラメータの更新に使用される。
論文 参考訳(メタデータ) (2024-06-01T13:10:35Z) - Federated Hybrid Model Pruning through Loss Landscape Exploration [17.589308358508863]
フェデレートラーニング(FL)はこの変革の中心にある。
適応型ハイブリッドプルーニング手法によりFLを最適化する新しいフレームワークであるAutoFLIPを提案する。
計算オーバーヘッドの48.8%削減,通信コストの35.5%削減,グローバルな精度の向上など,AutoFLIPは定量的なメリットを提供する。
論文 参考訳(メタデータ) (2024-05-16T17:27:41Z) - FederatedScope-LLM: A Comprehensive Package for Fine-tuning Large
Language Models in Federated Learning [70.38817963253034]
本稿では, ファインチューニング LLM のこれらの課題について論じ, 本パッケージ FS-LLM を主な貢献として紹介する。
我々は、FLシナリオにおける将来の拡張のために、包括的フェデレーションパラメータ効率の良い微調整アルゴリズムの実装と汎用プログラミングインタフェースを提供する。
本研究では, FS-LLM の有効性を検証し, FL 設定におけるパラメータ効率の高いパラメータ調整アルゴリズムを用いて, 高度な LLM のベンチマークを行う。
論文 参考訳(メタデータ) (2023-09-01T09:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。