論文の概要: Attention-aware Semantic Communications for Collaborative Inference
- arxiv url: http://arxiv.org/abs/2404.07217v2
- Date: Fri, 31 May 2024 14:23:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-03 19:33:06.327919
- Title: Attention-aware Semantic Communications for Collaborative Inference
- Title(参考訳): 協調推論のための注意型意味コミュニケーション
- Authors: Jiwoong Im, Nayoung Kwon, Taewoo Park, Jiheon Woo, Jaeho Lee, Yongjune Kim,
- Abstract要約: 本稿では,エッジ推論分野におけるコミュニケーション効率のよい協調推論フレームワークを提案する。
我々のフレームワークはエッジデバイス上で軽量なViTモデルを使用し、サーバは複雑なViTモデルをデプロイする。
提案した協調推論フレームワークは,ImageNetデータセットのサーバモデルと比較して,最小限の精度で通信オーバーヘッドを68%削減できることを示した。
- 参考スコア(独自算出の注目度): 14.111401985496625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a communication-efficient collaborative inference framework in the domain of edge inference, focusing on the efficient use of vision transformer (ViT) models. The partitioning strategy of conventional collaborative inference fails to reduce communication cost because of the inherent architecture of ViTs maintaining consistent layer dimensions across the entire transformer encoder. Therefore, instead of employing the partitioning strategy, our framework utilizes a lightweight ViT model on the edge device, with the server deploying a complicated ViT model. To enhance communication efficiency and achieve the classification accuracy of the server model, we propose two strategies: 1) attention-aware patch selection and 2) entropy-aware image transmission. Attention-aware patch selection leverages the attention scores generated by the edge device's transformer encoder to identify and select the image patches critical for classification. This strategy enables the edge device to transmit only the essential patches to the server, significantly improving communication efficiency. Entropy-aware image transmission uses min-entropy as a metric to accurately determine whether to depend on the lightweight model on the edge device or to request the inference from the server model. In our framework, the lightweight ViT model on the edge device acts as a semantic encoder, efficiently identifying and selecting the crucial image information required for the classification task. Our experiments demonstrate that the proposed collaborative inference framework can reduce communication overhead by 68% with only a minimal loss in accuracy compared to the server model on the ImageNet dataset.
- Abstract(参考訳): 本稿では,視覚変換器(ViT)モデルの効率的な利用に着目し,エッジ推論領域におけるコミュニケーション効率の良い協調推論フレームワークを提案する。
従来のコラボレーティブ推論の分割戦略は、トランスバータエンコーダ全体にわたって一貫した層次元を維持するViT固有のアーキテクチャのため、通信コストの削減に失敗する。
したがって、分割戦略を採用する代わりに、エッジデバイス上の軽量なViTモデルを使用し、サーバは複雑なViTモデルをデプロイする。
通信効率を向上し、サーバモデルの分類精度を達成するために、我々は2つの戦略を提案する。
1)注意を意識したパッチ選択
2)エントロピー対応画像伝送。
アテンション対応パッチ選択は、エッジデバイスのトランスフォーマーエンコーダが生成したアテンションスコアを利用して、分類に不可欠なイメージパッチを特定し、選択する。
この戦略により、エッジデバイスは必要なパッチのみをサーバに送信し、通信効率を大幅に向上させることができる。
エントロピー対応画像伝送は、エッジデバイス上の軽量モデルに依存するか、サーバモデルからの推論を要求するかを正確に判定するために、min-entropyをメトリックとして使用する。
本フレームワークでは,エッジデバイス上での軽量なViTモデルをセマンティックエンコーダとして機能し,分類作業に必要な重要な画像情報を効率的に識別し,選択する。
提案した協調推論フレームワークは,ImageNetデータセットのサーバモデルと比較して,最小限の精度で通信オーバーヘッドを68%削減できることを示した。
関連論文リスト
- Semantic Communication based on Generative AI: A New Approach to Image Compression and Edge Optimization [1.450405446885067]
この論文は、最適化された画像圧縮とエッジネットワークリソース割り当てのための意味コミュニケーションと生成モデルを統合する。
通信インフラは、帯域幅効率とレイテンシーの大幅な改善の恩恵を受けることができる。
その結果、生成AIとセマンティックコミュニケーションを組み合わせて、より効率的なセマンティックゴール指向のコミュニケーションネットワークを構築する可能性を実証した。
論文 参考訳(メタデータ) (2025-02-01T21:48:31Z) - Vision Transformer-based Semantic Communications With Importance-Aware Quantization [13.328970689723096]
本稿では、無線画像伝送のための重要量化(IAQ)を用いた視覚変換器(ViT)に基づくセマンティック通信システムを提案する。
筆者らのIAQフレームワークは, エラーのない, 現実的な通信シナリオにおいて, 従来の画像圧縮手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-12-08T19:24:47Z) - Toward Real-Time Edge AI: Model-Agnostic Task-Oriented Communication with Visual Feature Alignment [23.796344455232227]
タスク指向通信はエッジ推論システムの通信効率を向上させるための有望なアプローチを示す。
リアルタイムアプリケーションは、未完成のカバレッジやエッジサーバの潜在的な誤動作など、現実的な課題に直面している。
本研究では,多様なシステム間で共有アンカーデータを利用する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-01T15:52:05Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Semantic Communication Enabling Robust Edge Intelligence for
Time-Critical IoT Applications [87.05763097471487]
本稿では、時間クリティカルなIoTアプリケーションのためのセマンティック通信を用いて、堅牢なエッジインテリジェンスを設計することを目的とする。
本稿では,画像DCT係数が推定精度に与える影響を解析し,オフロードのためのチャネル非依存の有効性符号化を提案する。
論文 参考訳(メタデータ) (2022-11-24T20:13:17Z) - Task-Oriented Over-the-Air Computation for Multi-Device Edge AI [57.50247872182593]
エッジAIをサポートするための6Gネットワークは、AIタスクの効率的かつ効率的な実行に焦点を当てたタスク指向のテクニックを備えている。
本稿では,マルチデバイススプリット推論システムにおけるタスク指向オーバー・ザ・エア計算(AirComp)方式を提案する。
論文 参考訳(メタデータ) (2022-11-02T16:35:14Z) - Cross-receptive Focused Inference Network for Lightweight Image
Super-Resolution [64.25751738088015]
トランスフォーマーに基づく手法は、単一画像超解像(SISR)タスクにおいて顕著な性能を示した。
動的に特徴を抽出するために文脈情報を組み込む必要がある変換器は無視される。
我々は,CNNとTransformerを混合したCTブロックのカスケードで構成される,軽量なクロスレセプティブ・フォーカスド・推論・ネットワーク(CFIN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T16:32:29Z) - AdaViT: Adaptive Tokens for Efficient Vision Transformer [91.88404546243113]
本稿では,視覚変換器(ViT)の推論コストを,複雑さの異なる画像に対して適応的に調整する手法であるAdaViTを紹介する。
AdaViTは、推論が進むにつれてネットワーク内で処理されるビジョントランスフォーマーのトークン数を自動で削減することで、これを実現する。
論文 参考訳(メタデータ) (2021-12-14T18:56:07Z) - Communication-Computation Efficient Device-Edge Co-Inference via AutoML [4.06604174802643]
デバイスエッジのコ推論は、リソース制約のあるモバイルデバイスとエッジサーバの間のディープニューラルネットワークを分割する。
オンデバイスモデルスパーシリティレベルと中間特徴圧縮比は、ワークロードと通信オーバーヘッドに直接的な影響を与える。
深部強化学習(DRL)に基づく新しい自動機械学習(AutoML)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-30T06:36:30Z) - Thinking Fast and Slow: Efficient Text-to-Visual Retrieval with
Transformers [115.90778814368703]
目的は,大規模画像とビデオデータセットの言語検索である。
このタスクでは、独立してテキストとビジョンを共同埋め込み空間 a.k.a にマッピングする。
デュアルエンコーダは 検索スケールとして魅力的です
視覚テキスト変換器をクロスアテンションで使用する別のアプローチは、関節埋め込みよりも精度が大幅に向上する。
論文 参考訳(メタデータ) (2021-03-30T17:57:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。