論文の概要: Residual Vector Quantization For Communication-Efficient Multi-Agent Perception
- arxiv url: http://arxiv.org/abs/2509.21464v1
- Date: Thu, 25 Sep 2025 19:30:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:53.941679
- Title: Residual Vector Quantization For Communication-Efficient Multi-Agent Perception
- Title(参考訳): 通信効率の良いマルチエージェント知覚のための残差ベクトル量子化
- Authors: Dereje Shenkut, B. V. K Vijaya Kumar,
- Abstract要約: 中間特徴を圧縮しながら空間的アイデンティティを保持する学習機能であるReVQomを提案する。
ReVQomは、単純なボトルネックネットワークを介して特徴次元を圧縮するエンドツーエンドの手法である。
DAIR-V2XリアルタイムCPデータセットでは、ReVQomは30bppから1365xで273x圧縮を6bppで達成している。
- 参考スコア(独自算出の注目度): 1.246150324257064
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-agent collaborative perception (CP) improves scene understanding by sharing information across connected agents such as autonomous vehicles, unmanned aerial vehicles, and robots. Communication bandwidth, however, constrains scalability. We present ReVQom, a learned feature codec that preserves spatial identity while compressing intermediate features. ReVQom is an end-to-end method that compresses feature dimensions via a simple bottleneck network followed by multi-stage residual vector quantization (RVQ). This allows only per-pixel code indices to be transmitted, reducing payloads from 8192 bits per pixel (bpp) of uncompressed 32-bit float features to 6-30 bpp per agent with minimal accuracy loss. On DAIR-V2X real-world CP dataset, ReVQom achieves 273x compression at 30 bpp to 1365x compression at 6 bpp. At 18 bpp (455x), ReVQom matches or outperforms raw-feature CP, and at 6-12 bpp it enables ultra-low-bandwidth operation with graceful degradation. ReVQom allows efficient and accurate multi-agent collaborative perception with a step toward practical V2X deployment.
- Abstract(参考訳): マルチエージェント協調認識(CP)は、自律走行車、無人航空機、ロボットなどの接続されたエージェント間で情報を共有することにより、シーン理解を改善する。
しかし、通信帯域幅はスケーラビリティを制限します。
本稿では,中間特徴を圧縮しながら空間的同一性を保持する学習的特徴コーデックReVQomを提案する。
ReVQomは、単純なボトルネックネットワークを介して特徴次元を圧縮し、次に多段階残留ベクトル量子化(RVQ)を行うエンドツーエンドの手法である。
これにより、ピクセル単位のコードインデックスのみを送信でき、圧縮されていない32ビットフロートの特徴の8192ビット(bpp)のペイロードを、最小の精度で1エージェントあたり6-30bppに削減できる。
DAIR-V2XリアルタイムCPデータセットでは、ReVQomは30bppから1365xで273x圧縮を6bppで達成している。
18bpp (455x)では、ReVQomは生のCPと一致または性能が良く、6-12bppでは、優雅な劣化を伴う超低帯域幅動作を可能にする。
ReVQomは、実用的なV2Xデプロイメントに向けたステップとして、効率的で正確なマルチエージェント協調認識を可能にする。
関連論文リスト
- Lossless Compression of Neural Network Components: Weights, Checkpoints, and K/V Caches in Low-Precision Formats [0.0]
本研究では、ZipNNのアプローチをより高精度な浮動小数点点フォーマット、特にFP8とFP4に拡張する。
圧縮比はBF16が62%,FP8が83%であった。
また,キー値(K/V)キャッシュテンソルの圧縮性についても検討した。
論文 参考訳(メタデータ) (2025-08-20T12:46:50Z) - Task-Oriented Feature Compression for Multimodal Understanding via Device-Edge Co-Inference [49.77734021302196]
本稿では,マルチモーダル理解のためのタスク指向特徴圧縮(TOFC)手法を提案する。
圧縮効率を向上させるために、視覚特徴の特性に基づいて複数のエントロピーモデルを適応的に選択する。
その結果,TOFCはデータ転送オーバーヘッドを最大52%削減し,システム遅延を最大63%削減できることがわかった。
論文 参考訳(メタデータ) (2025-03-17T08:37:22Z) - Fed-CVLC: Compressing Federated Learning Communications with
Variable-Length Codes [54.18186259484828]
フェデレートラーニング(FL)パラダイムでは、パラメータサーバ(PS)がモデル収集、更新アグリゲーション、複数のラウンドでのモデル分散のために、分散参加クライアントと同時通信する。
FLの圧縮には可変長が有用であることを示す。
本稿では,Fed-CVLC(Federated Learning Compression with Variable-Length Codes)を提案する。
論文 参考訳(メタデータ) (2024-02-06T07:25:21Z) - GraVAC: Adaptive Compression for Communication-Efficient Distributed DL
Training [0.0]
分散データ並列(DDP)トレーニングは、複数のデバイスがデータのサブセットをトレーニングし、アップデートを集約してグローバルに共有するモデルを生成することにより、アプリケーション全体のスループットを向上させる。
GraVACは、モデル進捗を評価し、圧縮に関連する情報損失を評価することで、トレーニング全体を通して圧縮係数を動的に調整するフレームワークである。
静的圧縮係数を使用するのとは対照的に、GraVACはResNet101、VGG16、LSTMのエンドツーエンドのトレーニング時間をそれぞれ4.32x、1.95x、6.67x削減する。
論文 参考訳(メタデータ) (2023-05-20T14:25:17Z) - DeepCompress: Efficient Point Cloud Geometry Compression [1.808877001896346]
本稿では,ポイントクラウド圧縮のためのより効率的なディープラーニングベースのエンコーダアーキテクチャを提案する。
CENIC(Efficient Neural Image Compression)から学習した活性化関数を組み込むことで,効率と性能が劇的に向上することを示す。
提案手法は,BjontegardデルタレートとPSNR値において,ベースラインアプローチよりも小さなマージンで優れていた。
論文 参考訳(メタデータ) (2021-06-02T23:18:11Z) - Towards Compact CNNs via Collaborative Compression [166.86915086497433]
チャネルプルーニングとテンソル分解を結合してCNNモデルを圧縮する協調圧縮方式を提案する。
52.9%のFLOPを削減し、ResNet-50で48.4%のパラメータを削除しました。
論文 参考訳(メタデータ) (2021-05-24T12:07:38Z) - Single-path Bit Sharing for Automatic Loss-aware Model Compression [126.98903867768732]
シングルパスビット共有(SBS)は、計算コストを大幅に削減し、有望な性能を達成する。
SBS圧縮MobileNetV2は、Top-1の精度がわずか0.1%低下した22.6倍ビット演算(BOP)を実現する。
論文 参考訳(メタデータ) (2021-01-13T08:28:21Z) - Leveraging Automated Mixed-Low-Precision Quantization for tiny edge
microcontrollers [76.30674794049293]
本稿では、HAQフレームワークに基づく自動混合精度量子化フローを提案するが、MCUデバイスのメモリおよび計算特性に特化している。
具体的には、強化学習エージェントは、個々の重みとアクティベーションテンソルの2, 4, 8ビットのうち、最高の均一量子化レベルを探索する。
重量のみの量子化のために2MBに制限されたMCUクラスのメモリが与えられた場合、混合精度エンジンによって生成された圧縮されたモデルは、最先端のソリューションと同じくらい正確である。
論文 参考訳(メタデータ) (2020-08-12T06:09:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。