論文の概要: Synergy: Towards On-Body AI via Tiny AI Accelerator Collaboration on Wearables
- arxiv url: http://arxiv.org/abs/2401.08637v2
- Date: Tue, 2 Jul 2024 21:21:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 20:13:45.349180
- Title: Synergy: Towards On-Body AI via Tiny AI Accelerator Collaboration on Wearables
- Title(参考訳): Synergy: ウェアラブル上でのTiny AI AcceleratorコラボレーションによるオンボディAIを目指す
- Authors: Taesik Gong, Si Young Jang, Utku Günay Acer, Fahim Kawsar, Chulhong Min,
- Abstract要約: Synergyは、AIアクセラレータを搭載したウェアラブルに対して、システム駆動の全体的コラボレーションを通じて、AIアプリに最高のパフォーマンスを提供する。
評価の結果,Synergyは平均23.0倍のスループット向上を実現し,レイテンシを73.9%,消費電力を15.8%削減した。
- 参考スコア(独自算出の注目度): 8.406317649165391
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The advent of tiny artificial intelligence (AI) accelerators enables AI to run at the extreme edge, offering reduced latency, lower power cost, and improved privacy. When integrated into wearable devices, these accelerators open exciting opportunities, allowing various AI apps to run directly on the body. We present Synergy that provides AI apps with best-effort performance via system-driven holistic collaboration over AI accelerator-equipped wearables. To achieve this, Synergy provides device-agnostic programming interfaces to AI apps, giving the system visibility and controllability over the app's resource use. Then, Synergy maximizes the inference throughput of concurrent AI models by creating various execution plans for each app considering AI accelerator availability and intelligently selecting the best set of execution plans. Synergy further improves throughput by leveraging parallelization opportunities over multiple computation units. Our evaluations with 7 baselines and 8 models demonstrate that, on average, Synergy achieves a 23.0 times improvement in throughput, while reducing latency by 73.9% and power consumption by 15.8%, compared to the baselines.
- Abstract(参考訳): 小型人工知能(AI)アクセラレーターの出現により、AIは極端に動作し、レイテンシを低減し、電力コストを低減し、プライバシーを改善した。
ウェアラブルデバイスに統合されると、これらのアクセラレーターはエキサイティングな機会を開き、さまざまなAIアプリが直接体の上で動くようになる。
我々は、AIアクセラレーターを搭載したウェアラブルに対して、システム駆動の全体的コラボレーションを通じて、AIアプリに最高のパフォーマンスを提供するSynergyを紹介します。
これを実現するため、SynergyはAIアプリにデバイスに依存しないプログラミングインターフェースを提供し、アプリのリソース使用に対するシステムの可視性と制御性を提供する。
次に、Synergyは、AIアクセラレーションの可用性を考慮して各アプリのさまざまな実行計画を作成し、最適な実行計画を選択することで、並行AIモデルの推論スループットを最大化する。
Synergyは、複数の計算ユニットにまたがる並列化の機会を活用することで、スループットをさらに向上する。
7つのベースラインと8つのモデルで評価した結果,Synergyは平均23.0倍のスループット向上を実現し,レイテンシを73.9%,消費電力を15.8%削減した。
関連論文リスト
- Profiling AI Models: Towards Efficient Computation Offloading in Heterogeneous Edge AI Systems [0.2357055571094446]
本稿では、AIモデルのプロファイリング、モデルタイプと基盤となるハードウェアに関するデータ収集、リソース利用とタスク完了時間の予測に焦点を当てた研究ロードマップを提案する。
3,000以上の実行での実験は、リソース割り当ての最適化とEdge AIのパフォーマンス向上を約束している。
論文 参考訳(メタデータ) (2024-10-30T16:07:14Z) - Generative Diffusion-based Contract Design for Efficient AI Twins Migration in Vehicular Embodied AI Networks [55.15079732226397]
Embodied AIは、サイバースペースと物理空間のギャップを埋める、急速に進歩する分野だ。
VEANETでは、組み込まれたAIツインが車載AIアシスタントとして機能し、自律運転をサポートするさまざまなタスクを実行する。
論文 参考訳(メタデータ) (2024-10-02T02:20:42Z) - Adaptation of XAI to Auto-tuning for Numerical Libraries [0.0]
説明可能なAI(XAI)技術は、AIモデル開発の合理化と、ユーザへのAI出力の説明の負担軽減を目的として、注目を集めている。
本研究は,2つの異なるプロセスに統合されたAIモデルのXAIに着目し,数値計算を行う。
論文 参考訳(メタデータ) (2024-05-12T09:00:56Z) - Realtime Facial Expression Recognition: Neuromorphic Hardware vs. Edge AI Accelerators [0.5492530316344587]
本稿では,社会ロボティクスなどの実世界の様々な応用における重要な要素として,リアルタイム表情認識(FER)システムに焦点をあてる。
フェース機械学習(ML)モデルをエッジに展開するためのハードウェアオプションとして,ニューロモルフィックハードウェアとエッジAIアクセラレータの2つについて検討する。
論文 参考訳(メタデータ) (2024-01-30T16:12:20Z) - Multi-Objective Optimization for UAV Swarm-Assisted IoT with Virtual
Antenna Arrays [55.736718475856726]
無人航空機(UAV)ネットワークはIoT(Internet-of-Things)を支援するための有望な技術である
既存のUAV支援データ収集および普及スキームでは、UAVはIoTとアクセスポイントの間を頻繁に飛行する必要がある。
協調ビームフォーミングをIoTとUAVに同時に導入し、エネルギーと時間効率のデータ収集と普及を実現した。
論文 参考訳(メタデータ) (2023-08-03T02:49:50Z) - Large Language Models Empowered Autonomous Edge AI for Connected
Intelligence [51.269276328087855]
エッジ人工知能(Edge AI)は、コネクテッドインテリジェンスを実現するための有望なソリューションである。
この記事では、ユーザのさまざまな要件を満たすために自動的に組織化し、適応し、最適化する、自律的なエッジAIシステムのビジョンを示す。
論文 参考訳(メタデータ) (2023-07-06T05:16:55Z) - Hardware Acceleration of Explainable Artificial Intelligence [5.076419064097733]
我々は,既存のハードウェアアクセラレーターを用いて,様々なXAIアルゴリズムを高速化する,シンプルかつ効率的なフレームワークを提案する。
提案手法はリアルタイムな結果解釈につながる可能性がある。
論文 参考訳(メタデータ) (2023-05-04T19:07:29Z) - Data-Model-Circuit Tri-Design for Ultra-Light Video Intelligence on Edge
Devices [90.30316433184414]
本稿では,HDビデオストリーム上での高スループット,低コスト,高精度MOTのためのデータモデル・ハードウエア・トリデザイン・フレームワークを提案する。
現状のMOTベースラインと比較して、我々の三設計アプローチは12.5倍の遅延低減、20.9倍のフレームレート改善、5.83倍の低消費電力、9.78倍のエネルギー効率を実現でき、精度は低下しない。
論文 参考訳(メタデータ) (2022-10-16T16:21:40Z) - FPGA-based AI Smart NICs for Scalable Distributed AI Training Systems [62.20308752994373]
我々は、フィールドプログラマブルゲートアレイ(FPGA)を用いた分散AI訓練システムのための新しいスマートネットワークインタフェースカード(NIC)を提案する。
提案するFPGAベースのAIスマートNICは,従来のNICを用いたベースラインシステムと比較して,6ノードで1.6倍,32ノードで2.5倍の性能向上が期待できる。
論文 参考訳(メタデータ) (2022-04-22T21:57:00Z) - Multiply-and-Fire (MNF): An Event-driven Sparse Neural Network
Accelerator [3.224364382976958]
この研究は、ANNアクセラレーションに対するイベント駆動(あるいはアクティベーション駆動)アプローチで、スパーシリティをユニークな視点で見る。
我々の分析および実験結果から、このイベント駆動型ソリューションは、CNNとワークロードの両方で高効率なAI推論を可能にするために、新たな方向を示すことが示されている。
論文 参考訳(メタデータ) (2022-04-20T21:56:50Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。