論文の概要: In-situ Model Downloading to Realize Versatile Edge AI in 6G Mobile
Networks
- arxiv url: http://arxiv.org/abs/2210.03555v2
- Date: Sun, 2 Apr 2023 14:49:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 00:38:18.593583
- Title: In-situ Model Downloading to Realize Versatile Edge AI in 6G Mobile
Networks
- Title(参考訳): 6GモバイルネットワークにおけるVersatile Edge AIを実現するためのIn-situモデルダウンロード
- Authors: Kaibin Huang, Hai Wu, Zhiyan Liu and Xiaojuan Qi
- Abstract要約: In-situモデルダウンロードは、ネットワーク内のAIライブラリからダウンロードすることで、デバイス上のAIモデルを透過的でリアルタイムに置き換えることを目的としている。
提示されたフレームワークの重要なコンポーネントは、ダウンロードされたモデルを深さレベル、パラメータレベル、ビットレベルで動的に圧縮する一連のテクニックである。
我々は,3層(エッジ,ローカル,中央)AIライブラリのキー機能を備えた,インサイトモデルダウンロードのデプロイ用にカスタマイズされた6Gネットワークアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 61.416494781759326
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The sixth-generation (6G) mobile networks are expected to feature the
ubiquitous deployment of machine learning and AI algorithms at the network
edge. With rapid advancements in edge AI, the time has come to realize
intelligence downloading onto edge devices (e.g., smartphones and sensors). To
materialize this version, we propose a novel technology in this article, called
in-situ model downloading, that aims to achieve transparent and real-time
replacement of on-device AI models by downloading from an AI library in the
network. Its distinctive feature is the adaptation of downloading to
time-varying situations (e.g., application, location, and time), devices'
heterogeneous storage-and-computing capacities, and channel states. A key
component of the presented framework is a set of techniques that dynamically
compress a downloaded model at the depth-level, parameter-level, or bit-level
to support adaptive model downloading. We further propose a virtualized 6G
network architecture customized for deploying in-situ model downloading with
the key feature of a three-tier (edge, local, and central) AI library.
Furthermore, experiments are conducted to quantify 6G connectivity requirements
and research opportunities pertaining to the proposed technology are discussed.
- Abstract(参考訳): 第6世代(6G)モバイルネットワークは、機械学習とAIアルゴリズムをネットワークエッジにユビキタスに展開する予定である。
エッジAIの急速な進歩により、エッジデバイス(スマートフォンやセンサーなど)にインテリジェンスダウンロードを実現する時代がやってきた。
このバージョンを実現するために,本論文では,ネットワーク内のAIライブラリからダウンロードすることで,デバイス上でのAIモデルの透過的かつリアルタイムな置換を実現することを目的とした,in-situモデルダウンロードという新しい技術を提案する。
その特徴は、時間変化の状況(例えば、アプリケーション、ロケーション、時間)、デバイスの異種ストレージと計算能力、チャネル状態へのダウンロードの適応である。
提案フレームワークの重要なコンポーネントは、アダプティブモデルダウンロードをサポートするために、奥行きレベル、パラメータレベル、ビットレベルでダウンロードモデルを動的に圧縮する一連のテクニックである。
さらに,3層(エッジ,ローカル,中央)AIライブラリの重要な機能を備えたインサイトモデルダウンロードのデプロイ用にカスタマイズされた仮想化6Gネットワークアーキテクチャを提案する。
さらに,提案技術に関連する6g接続要件と研究機会を定量化するための実験を行った。
関連論文リスト
- Two-Timescale Model Caching and Resource Allocation for Edge-Enabled AI-Generated Content Services [55.0337199834612]
Generative AI(GenAI)は、カスタマイズされたパーソナライズされたAI生成コンテンツ(AIGC)サービスを可能にするトランスフォーメーション技術として登場した。
これらのサービスは数十億のパラメータを持つGenAIモデルの実行を必要とし、リソース制限の無線エッジに重大な障害を生じさせる。
我々は、AIGC品質とレイテンシメトリクスのトレードオフをバランスさせるために、AIGCサービスのジョイントモデルキャッシングとリソースアロケーションの定式化を導入する。
論文 参考訳(メタデータ) (2024-11-03T07:01:13Z) - Profiling AI Models: Towards Efficient Computation Offloading in Heterogeneous Edge AI Systems [0.2357055571094446]
本稿では、AIモデルのプロファイリング、モデルタイプと基盤となるハードウェアに関するデータ収集、リソース利用とタスク完了時間の予測に焦点を当てた研究ロードマップを提案する。
3,000以上の実行での実験は、リソース割り当ての最適化とEdge AIのパフォーマンス向上を約束している。
論文 参考訳(メタデータ) (2024-10-30T16:07:14Z) - Computer Vision Model Compression Techniques for Embedded Systems: A Survey [75.38606213726906]
本稿では,コンピュータビジョンタスクに適用される主モデル圧縮技術について述べる。
本稿では,圧縮サブ領域の特性について述べるとともに,異なるアプローチを比較し,最適な手法を選択する方法について論じる。
初期の実装課題を克服する上で、研究者や新しい実践者を支援するためのコードも共有しています。
論文 参考訳(メタデータ) (2024-08-15T16:41:55Z) - Foundation Model Based Native AI Framework in 6G with Cloud-Edge-End
Collaboration [56.330705072736166]
基礎モデルに基づく6GネイティブAIフレームワークを提案し、意図認識型PFMのカスタマイズアプローチを提供し、新しいクラウド-エッジコラボレーションパラダイムを概説する。
実例として,無線通信システムにおける最大和率を達成するために,このフレームワークをオーケストレーションに適用する。
論文 参考訳(メタデータ) (2023-10-26T15:19:40Z) - Large Language Models Empowered Autonomous Edge AI for Connected
Intelligence [51.269276328087855]
エッジ人工知能(Edge AI)は、コネクテッドインテリジェンスを実現するための有望なソリューションである。
この記事では、ユーザのさまざまな要件を満たすために自動的に組織化し、適応し、最適化する、自律的なエッジAIシステムのビジョンを示す。
論文 参考訳(メタデータ) (2023-07-06T05:16:55Z) - Optimization Design for Federated Learning in Heterogeneous 6G Networks [27.273745760946962]
フェデレーテッド・ラーニング(FL)は、6GネットワークでユビキタスAIを実現するための重要な実現手段として期待されている。
6Gネットワークにおける有効かつ効率的なFL実装には、いくつかのシステムおよび統計的不均一性の課題がある。
本稿では,これらの課題に効果的に対処できる最適化手法について検討する。
論文 参考訳(メタデータ) (2023-03-15T02:18:21Z) - Edge Artificial Intelligence for 6G: Vision, Enabling Technologies, and
Applications [39.223546118441476]
6Gはワイヤレスの進化を「コネクテッドモノ」から「コネクテッドインテリジェンス」に変革する
ディープラーニングとビッグデータ分析に基づくAIシステムは、膨大な計算と通信資源を必要とする。
エッジAIは、センサー、通信、計算、インテリジェンスをシームレスに統合する6Gの破壊的技術として際立っている。
論文 参考訳(メタデータ) (2021-11-24T11:47:16Z) - Towards Self-learning Edge Intelligence in 6G [143.1821636135413]
エッジインテリジェンス(エッジインテリジェンス、Edge Intelligence、別名エッジネイティブ人工知能(AI))は、AI、通信ネットワーク、モバイルエッジコンピューティングのシームレスな統合に焦点を当てた新興技術フレームワークである。
本稿では、6GにおけるエッジネイティブAIの重要な要件と課題を特定する。
論文 参考訳(メタデータ) (2020-10-01T02:16:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。