論文の概要: LLM-Twin: Mini-Giant Model-driven Beyond 5G Digital Twin Networking
Framework with Semantic Secure Communication and Computation
- arxiv url: http://arxiv.org/abs/2312.10631v1
- Date: Sun, 17 Dec 2023 07:13:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 15:18:42.239279
- Title: LLM-Twin: Mini-Giant Model-driven Beyond 5G Digital Twin Networking
Framework with Semantic Secure Communication and Computation
- Title(参考訳): LLM-Twin: セマンティックセキュア通信と計算を備えた5Gディジタルツインネットワークフレームワークを超越したミニエージェントモデル
- Authors: Yang Hong, Jun Wu, and Rosario Morello
- Abstract要約: 本稿では,大規模言語モデル (LLM) によるDTNネットワークフレームワーク LLM-Twin を提案する。
まず, DTN における LLM の効率的な展開を実現するため, 最小限のモデル協調方式を設計する。
そこで本研究では,DTNのためのセマンティックレベルの高効率かつセキュアな通信モデルの設計を行う。
- 参考スコア(独自算出の注目度): 5.863586088644696
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Beyond 5G networks provide solutions for next-generation communications,
especially digital twins networks (DTNs) have gained increasing popularity for
bridging physical space and digital space. However, current DTNs networking
frameworks pose a number of challenges especially when applied in scenarios
that require high communication efficiency and multimodal data processing.
First, current DTNs frameworks are unavoidable regarding high resource
consumption and communication congestion because of original bit-level
communication and high-frequency computation, especially distributed
learning-based DTNs. Second, current machine learning models for DTNs are
domain-specific (e.g. E-health), making it difficult to handle DT scenarios
with multimodal data processing requirements. Last but not least, current
security schemes for DTNs, such as blockchain, introduce additional overheads
that impair the efficiency of DTNs. To address the above challenges, we propose
a large language model (LLM) empowered DTNs networking framework, LLM-Twin.
First, we design the mini-giant model collaboration scheme to achieve efficient
deployment of LLM in DTNs, since LLM are naturally conducive to processing
multimodal data. Then, we design a semantic-level high-efficiency, and secure
communication model for DTNs. The feasibility of LLM-Twin is demonstrated by
numerical experiments and case studies. To our knowledge, this is the first to
propose LLM-based semantic-level digital twin networking framework.
- Abstract(参考訳): 5Gネットワークを超えて、次世代通信ソリューション、特にデジタルツインネットワーク(DTN)は、物理的空間とデジタル空間のブリッジとして人気が高まっている。
しかし、現在のDTNsネットワークフレームワークは、特に高い通信効率とマルチモーダルデータ処理を必要とするシナリオに適用する場合、多くの課題を生んでいる。
第一に、現在のDTNsフレームワークは、元のビットレベル通信と高周波計算、特に分散学習ベースのDTNのために、高リソース消費と通信の混雑を回避できない。
第2に、DTNの現在の機械学習モデルはドメイン固有の(例えばEヘルス)ため、マルチモーダルなデータ処理要件でDTシナリオを扱うのは困難である。
最後に、ブロックチェーンのような現在のDTNのセキュリティスキームでは、DTNの効率を損なう新たなオーバーヘッドが導入されている。
以上の課題に対処するため,大規模言語モデル (LLM) によるDTNネットワークフレームワーク LLM-Twin を提案する。
まず, LLMはマルチモーダルデータの処理に自然に適しているため, DTNにおけるLLMの効率的な展開を実現するために, ミニガントモデル協調方式を設計する。
そして,DTNに対するセマンティックレベルの高効率かつセキュアな通信モデルの設計を行う。
LLM-Twinの有効性は数値実験やケーススタディで実証された。
私たちの知る限り、llmベースのセマンティックレベルデジタルツインネットワーキングフレームワークを提案するのはこれが初めてです。
関連論文リスト
- Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングでは、スパイクニューラルネットワーク(SNN)が推論タスクを実行し、シーケンシャルデータを含むワークロードの大幅な効率向上を提供する。
ハードウェアとソフトウェアの最近の進歩は、スパイクニューロン間で交換された各スパイクに数ビットのペイロードを埋め込むことにより、推論精度をさらに高めることを示した。
本稿では,マルチレベルSNNを用いた無線ニューロモルフィック分割計算アーキテクチャについて検討する。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - NVLM: Open Frontier-Class Multimodal LLMs [64.00053046838225]
NVLM 1.0は、フロンティアクラスのマルチモーダル言語モデル(LLM)のファミリーであり、視覚言語タスクの最先端結果を実現する。
トレーニング効率とマルチモーダル推論能力を両立させる新しいアーキテクチャを提案する。
我々は、NVLM-1.0モデルのための生産級マルチモーダリティを開発し、視覚言語タスクに優れる。
論文 参考訳(メタデータ) (2024-09-17T17:59:06Z) - WDMoE: Wireless Distributed Large Language Models with Mixture of Experts [65.57581050707738]
我々は,Mixture of Experts (MoE)に基づく無線分散大言語モデル(LLM)パラダイムを提案する。
我々は,基地局(BS)とモバイルデバイスにゲーティングネットワークと先行するニューラルネットワーク層を配置することにより,LLM内のMoE層を分解する。
我々は、モデルの性能とエンドツーエンドのレイテンシの両方を考慮して、専門家の選択ポリシーを設計する。
論文 参考訳(メタデータ) (2024-05-06T02:55:50Z) - Personalized Wireless Federated Learning for Large Language Models [75.22457544349668]
大規模言語モデル(LLM)は自然言語処理タスクに革命をもたらした。
無線ネットワークへの展開は、プライバシとセキュリティ保護機構の欠如など、依然として課題に直面している。
通信オーバーヘッドの少ない2つのパーソナライズされた無線フェデレーションファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2024-04-20T02:30:21Z) - NetLLM: Adapting Large Language Models for Networking [36.61572542761661]
我々は,ネットワーク問題を解決するために低努力でLLMの強力な能力を活用するためのコヒーレントな設計を提供する最初のフレームワークであるNetLLMを紹介する。
具体的には、NetLLMはLLMにネットワーク上のマルチモーダルデータを効果的に処理し、タスク固有の回答を効率的に生成する権限を与える。
論文 参考訳(メタデータ) (2024-02-04T04:21:34Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Efficient Ring-topology Decentralized Federated Learning with Deep
Generative Models for Industrial Artificial Intelligent [13.982904025739606]
深層生成モデル(dgms)のためのリングトポジ型分散連体学習方式を提案する。
我々のRDFLスキームは通信効率を向上し、目標IIoTタスクにおけるDGMを向上するための訓練性能を維持する。
さらに、通信効率とFLセキュリティをさらに向上するため、IPFS(InterPlanetary File System)を導入している。
論文 参考訳(メタデータ) (2021-04-15T08:09:54Z) - NN-EMD: Efficiently Training Neural Networks using Encrypted
Multi-Sourced Datasets [7.067870969078555]
暗号化データセット上で機械学習モデルをトレーニングすることは、プライバシ保護機械学習タスクに対処するための、既存の有望なアプローチである。
複数の情報源から収集された複数のデータセット上でディープニューラルネットワーク(DNN)モデルをトレーニングするための新しいフレームワークであるNN-EMDを提案する。
MNISTデータセットのトレーニング時間とモデル精度について,本フレームワークの性能評価を行った。
論文 参考訳(メタデータ) (2020-12-18T23:01:20Z) - Regularized Adaptation for Stable and Efficient Continuous-Level
Learning on Image Processing Networks [7.730087303035803]
フィルタ遷移ネットワーク(FTN)を用いた新しい連続レベル学習フレームワークを提案する。
FTNは、新しいレベルに容易に適応できる非線形モジュールであり、望ましくない副作用を防ぐために正規化されている。
様々な画像処理結果から,FTNの性能は適応性および適応性において安定であることが示唆された。
論文 参考訳(メタデータ) (2020-03-11T07:46:57Z) - The Microsoft Toolkit of Multi-Task Deep Neural Networks for Natural
Language Understanding [97.85957811603251]
MT-DNNはオープンソースの自然言語理解(NLU)ツールキットであり、研究者や開発者がカスタマイズされたディープラーニングモデルを訓練しやすくする。
PyTorchとTransformersをベースとして開発されたMT-DNNは、幅広いNLUタスクの迅速なカスタマイズを容易にするように設計されている。
MT-DNNのユニークな特徴は、対戦型マルチタスク学習パラダイムを用いた堅牢で移動可能な学習のサポートである。
論文 参考訳(メタデータ) (2020-02-19T03:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。