論文の概要: InTec: integrated things-edge computing: a framework for distributing machine learning pipelines in edge AI systems
- arxiv url: http://arxiv.org/abs/2502.11644v1
- Date: Mon, 17 Feb 2025 10:38:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:09:26.247914
- Title: InTec: integrated things-edge computing: a framework for distributing machine learning pipelines in edge AI systems
- Title(参考訳): InTec: エッジAIシステムに機械学習パイプラインを分散するためのフレームワーク
- Authors: Habib Larian, Faramarz Safi-Esfahani,
- Abstract要約: この記事では、IoTアーキテクチャにおける画期的なイノベーションであるInTec(Integrated Things Edge Computing)フレームワークを紹介します。
既存の方法とは異なり、InTecは、モノ、エッジ、クラウドの各レイヤにMLタスクを戦略的に分散することで、3層アーキテクチャの可能性を完全に活用する。
この包括的なアプローチは、データ生成時点でのリアルタイムデータ処理を可能にし、レイテンシを大幅に削減し、ネットワークトラフィックを最適化し、システムの信頼性を向上させる。
- 参考スコア(独自算出の注目度): 1.3812010983144802
- License:
- Abstract: With the rapid expansion of the Internet of Things (IoT), sensors, smartphones, and wearables have become integral to daily life, powering smart applications in home automation, healthcare, and intelligent transportation. However, these advancements face significant challenges due to latency and bandwidth constraints imposed by traditional cloud based machine learning (ML) frameworks. The need for innovative solutions is evident as cloud computing struggles with increased latency and network congestion. Previous attempts to offload parts of the ML pipeline to edge and cloud layers have yet to fully resolve these issues, often worsening system response times and network congestion due to the computational limitations of edge devices. In response to these challenges, this study introduces the InTec (Integrated Things Edge Computing) framework, a groundbreaking innovation in IoT architecture. Unlike existing methods, InTec fully leverages the potential of a three tier architecture by strategically distributing ML tasks across the Things, Edge, and Cloud layers. This comprehensive approach enables real time data processing at the point of data generation, significantly reducing latency, optimizing network traffic, and enhancing system reliability. InTec effectiveness is validated through empirical evaluation using the MHEALTH dataset for human motion detection in smart homes, demonstrating notable improvements in key metrics: an 81.56 percent reduction in response time, a 10.92 percent decrease in network traffic, a 9.82 percent improvement in throughput, a 21.86 percent reduction in edge energy consumption, and a 25.83 percent reduction in cloud energy consumption. These advancements establish InTec as a new benchmark for scalable, responsive, and energy efficient IoT applications, demonstrating its potential to revolutionize how the ML pipeline is integrated into Edge AI (EI) systems.
- Abstract(参考訳): IoT(Internet of Things)の急速な拡大に伴い、センサ、スマートフォン、ウェアラブルは日常生活に不可欠なものとなり、ホームオートメーション、ヘルスケア、インテリジェントトランスポートにおけるスマートアプリケーションに力を入れている。
しかしながら、これらの進歩は、従来のクラウドベース機械学習(ML)フレームワークが課すレイテンシと帯域幅の制約によって、重大な課題に直面している。
クラウドコンピューティングがレイテンシとネットワークの混雑の増大に苦慮しているため、革新的なソリューションの必要性は明らかである。
MLパイプラインの一部をエッジ層とクラウド層にオフロードする以前の試みは、これらの問題を十分に解決できていない。
これらの課題に対応するために、本研究では、IoTアーキテクチャにおける画期的なイノベーションであるInTec(Integrated Things Edge Computing)フレームワークを紹介します。
既存の方法とは異なり、InTecは、モノ、エッジ、クラウドの各レイヤにMLタスクを戦略的に分散することで、3層アーキテクチャの可能性を完全に活用する。
この包括的なアプローチは、データ生成時点でのリアルタイムデータ処理を可能にし、レイテンシを大幅に削減し、ネットワークトラフィックを最適化し、システムの信頼性を向上させる。
InTecの有効性は、スマートホームにおけるヒューマンモーション検出のためのMHEALTHデータセットを使用した実証的な評価によって検証され、応答時間の81.56%の削減、ネットワークトラフィックの10.92パーセントの削減、スループットの9.82パーセントの改善、エッジエネルギー消費の21.86パーセントの削減、クラウドエネルギー消費の25.83パーセントの削減など、主要な指標の顕著な改善が示されている。
これらの進歩は、スケーラブルで応答性があり、エネルギー効率のよいIoTアプリケーションのための新しいベンチマークとしてInTecを確立し、MLパイプラインがEdge AI(EI)システムに統合される方法に革命をもたらす可能性を実証している。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Efficient Multi-Object Tracking on Edge Devices via Reconstruction-Based Channel Pruning [0.2302001830524133]
現代のMOTシステムで使用されるような複雑なネットワークの圧縮に適したニューラルネットワークプルーニング手法を提案する。
我々は、高い精度を維持しつつ、最大70%のモデルサイズ削減を実現し、さらにJetson Orin Nanoの性能を向上させる。
論文 参考訳(メタデータ) (2024-10-11T12:37:42Z) - Quantum-Edge Cloud Computing: A Future Paradigm for IoT Applications [0.0]
IoT(Internet of Things)は急速に拡大しており、高度な計算フレームワークの必要性を生み出している。
従来のクラウドコンピューティングフレームワークは、レイテンシ、スケーラビリティ、セキュリティの脆弱性に悩まされてきた。
量子エッジクラウドコンピューティング(QECC)は、量子コンピューティングの計算能力、エッジコンピューティングの低レイテンシの利点、クラウドコンピューティングのスケーラブルなリソースを組み合わせた新しいパラダイムである。
論文 参考訳(メタデータ) (2024-05-08T05:42:26Z) - Edge Intelligence Over the Air: Two Faces of Interference in Federated
Learning [95.31679010587473]
フェデレートされたエッジ学習は、次世代無線ネットワークにおけるインテリジェンスの実現の基盤として考えられている。
本稿では,無線によるエッジ学習システムにおける干渉の肯定的および否定的影響について概説する。
論文 参考訳(メタデータ) (2023-06-17T09:04:48Z) - FLEdge: Benchmarking Federated Machine Learning Applications in Edge Computing Systems [61.335229621081346]
フェデレートラーニング(FL)は,ネットワークエッジ上での分散ディープラーニングのプライバシ強化を実現する上で,有効なテクニックとなっている。
本稿では,既存のFLベンチマークを補完するFLEdgeを提案する。
論文 参考訳(メタデータ) (2023-06-08T13:11:20Z) - Fluid Batching: Exit-Aware Preemptive Serving of Early-Exit Neural
Networks on Edge NPUs [74.83613252825754]
スマートエコシステム(smart ecosystems)"は、スタンドアロンではなく、センセーションが同時に行われるように形成されています。
これはデバイス上の推論パラダイムを、エッジにニューラル処理ユニット(NPU)をデプロイする方向にシフトしている。
そこで本研究では,実行時のプリエンプションが到着・終了プロセスによってもたらされる動的性を考慮に入れた,新しい早期終了スケジューリングを提案する。
論文 参考訳(メタデータ) (2022-09-27T15:04:01Z) - Latency-Memory Optimized Splitting of Convolution Neural Networks for
Resource Constrained Edge Devices [1.6873748786804317]
我々は、エッジデバイスとクラウド間でCNNを実行することは、リソース制約のある最適化問題を解決することと同義であると主張している。
実世界のエッジデバイスでの実験では、LMOSはエッジで異なるCNNモデルの実行可能な実行を保証する。
論文 参考訳(メタデータ) (2021-07-19T19:39:56Z) - Towards AIOps in Edge Computing Environments [60.27785717687999]
本稿では,異種分散環境に適用可能なaiopsプラットフォームのシステム設計について述べる。
高頻度でメトリクスを収集し、エッジデバイス上で特定の異常検出アルゴリズムを直接実行することが可能である。
論文 参考訳(メタデータ) (2021-02-12T09:33:00Z) - Cost-effective Machine Learning Inference Offload for Edge Computing [0.3149883354098941]
本稿では,インストール・ベース・オンプレミス(edge)計算資源を活用した新しいオフロード機構を提案する。
提案するメカニズムにより、エッジデバイスは、リモートクラウドを使用する代わりに、重い計算集約的なワークロードをエッジノードにオフロードすることができる。
論文 参考訳(メタデータ) (2020-12-07T21:11:02Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。