論文の概要: An Efficient Semantic Segmentation Decoder for In-Car or Distributed Applications
- arxiv url: http://arxiv.org/abs/2510.16747v1
- Date: Sun, 19 Oct 2025 08:13:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.125734
- Title: An Efficient Semantic Segmentation Decoder for In-Car or Distributed Applications
- Title(参考訳): 車載・分散アプリケーションのための効率的なセマンティックセグメンテーションデコーダ
- Authors: Danish Nazir, Gowtham Sai Inti, Timo Bartels, Jan Piewek, Thorsten Bagdonat, Tim Fingscheidt,
- Abstract要約: そこで我々は,SegDeformerの共用機能とタスクデコーディングを提案し,車載および分散アプリケーションの計算複雑性を低減した。
車載アプリケーションの場合、1秒あたりのフレーム(fps)を、Cityscapesで11.7ドル(1.4ドルから16.5ドルfps)、ADE20Kで3.5ドル(43.3ドルから154.3ドルfps)まで増やす。
- 参考スコア(独自算出の注目度): 16.887555322115684
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern automotive systems leverage deep neural networks (DNNs) for semantic segmentation and operate in two key application areas: (1) In-car, where the DNN solely operates in the vehicle without strict constraints on the data rate. (2) Distributed, where one DNN part operates in the vehicle and the other part typically on a large-scale cloud platform with a particular constraint on transmission bitrate efficiency. Typically, both applications share an image and source encoder, while each uses distinct (joint) source and task decoders. Prior work utilized convolutional neural networks for joint source and task decoding but did not investigate transformer-based alternatives such as SegDeformer, which offer superior performance at the cost of higher computational complexity. In this work, we propose joint feature and task decoding for SegDeformer, thereby enabling lower computational complexity in both in-car and distributed applications, despite SegDeformer's computational demands. This improves scalability in the cloud while reducing in-car computational complexity. For the in-car application, we increased the frames per second (fps) by up to a factor of $11.7$ ($1.4$ fps to $16.5$ fps) on Cityscapes and by up to a factor of $3.5$ ($43.3$ fps to $154.3$ fps) on ADE20K, while being on-par w.r.t.\ the mean intersection over union (mIoU) of the transformer-based baseline that doesn't compress by a source codec. For the distributed application, we achieve state-of-the-art (SOTA) over a wide range of bitrates on the mIoU metric, while using only $0.14$\% ($0.04$\%) of cloud DNN parameters used in previous SOTA, reported on ADE20K (Cityscapes).
- Abstract(参考訳): 現代の自動車システムは、セマンティックセグメンテーションにディープニューラルネットワーク(DNN)を活用し、(1)車内、DNNがデータレートに厳格な制約を伴わずに車内のみを運用する2つの主要なアプリケーション領域で運用している。
2)一方のDNN部が車両内で動作し,他方の部分は送信ビットレート効率に一定の制約を課した大規模クラウドプラットフォーム上で動作している。
通常、どちらのアプリケーションもイメージエンコーダとソースエンコーダを共有し、それぞれが異なる(ジョイント)ソースとタスクデコーダを使用する。
以前の研究では、畳み込みニューラルネットワークをジョイントソースとタスクデコーディングに利用していたが、高い計算複雑性を犠牲にして優れたパフォーマンスを提供するSegDeformerのようなトランスフォーマーベースの代替品を調査しなかった。
そこで本研究では,SegDeformerの計算要求にもかかわらず,車内および分散アプリケーションの計算複雑性の低減を図るために,SegDeformerの結合機能とタスクデコーディングを提案する。
これにより、車内計算の複雑さを低減しつつ、クラウドのスケーラビリティが向上する。
車載アプリケーションでは、Cityscapesでは11.7ドル($1.4$fpsから$16.5$fps)、ADE20Kでは3.5ドル($43.3$fpsから$54.3$fps)まで、そしてソースコーデックでは圧縮されないトランスフォーマーベースベースラインのユニオン(mIoU)の平均交差は、オンパーw.r.t.\である。
分散アプリケーションでは, ADE20K (Cityscapes) で報告されたクラウド DNN パラメータの 0.14$\% (0.04$\%) しか使用せず, mIoU メトリック上で幅広いビットレートで最先端 (SOTA) を実現する。
関連論文リスト
- Towards Practical Real-Time Neural Video Compression [60.390180067626396]
我々は,高圧縮比,低レイテンシ,広範汎用性を実現するために設計された実用的リアルタイムニューラルビデオ(NVC)を紹介する。
実験により,提案したDCVC-RTは1080pビデオに対して125.2/112.8フレーム(毎秒125.2/112.8フレーム)の高速符号化を実現し,H.266/VTMと比較して21%のfpsを節約できた。
論文 参考訳(メタデータ) (2025-02-28T06:32:23Z) - LUT-DLA: Lookup Table as Efficient Extreme Low-Bit Deep Learning Accelerator [11.167930856636161]
本稿では、ベクトル量子化を利用してニューラルネットワークモデルをLUTに変換するLUT-DLA(Look-Up Table (LUT) Deep Learning Accelerator Framework)を紹介する。
LUT-DLAは、それぞれ$1.4$$7.0times$と$1.5$$$146.1times$で、電力効率と面積効率の改善を実現していることを示す。
論文 参考訳(メタデータ) (2025-01-18T05:27:25Z) - FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - Distributed Semantic Segmentation with Efficient Joint Source and Task Decoding [18.8803233019656]
ディープニューラルネットワーク(DNN)は、エッジデバイス上のネットワークの一部と、大規模クラウドプラットフォーム上での他部分を実行する。
そこで本研究では,クラウド上のネットワークサイズを小さくする目的で,共同ソースとタスクデコーディングを提案する。
本研究では,分散セマンティックセグメンテーションSOTAを幅広い交差点で実現し,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-07-15T20:20:04Z) - ApproxDARTS: Differentiable Neural Architecture Search with Approximate Multipliers [0.24578723416255746]
本稿では、DARTSと呼ばれる一般的な微分可能なニューラルアーキテクチャ探索手法を応用し、近似乗算器を活用可能なニューラルアーキテクチャ探索(NAS)手法であるApproxDARTSを提案する。
ApproxDARTSは10ドル未満のGPU時間で完全なアーキテクチャ検索を実行でき、畳み込み層に近似乗算器を含む競合畳み込みニューラルネットワーク(CNN)を生成する。
論文 参考訳(メタデータ) (2024-04-08T09:54:57Z) - Communication-Efficient Adam-Type Algorithms for Distributed Data Mining [93.50424502011626]
我々はスケッチを利用した新しい分散Adam型アルゴリズムのクラス(例:SketchedAMSGrad)を提案する。
我々の新しいアルゴリズムは、反復毎に$O(frac1sqrtnT + frac1(k/d)2 T)$の高速収束率を$O(k log(d))$の通信コストで達成する。
論文 参考訳(メタデータ) (2022-10-14T01:42:05Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Lightweight Compression of Intermediate Neural Network Features for
Collaborative Intelligence [32.03465747357384]
協調インテリジェンスアプリケーションでは、ディープニューラルネットワーク(DNN)の一部が携帯電話やエッジデバイスなどの軽量デバイスにデプロイされます。
本稿では,分割DNNの中間層によって出力される特徴を量子化し圧縮する,新しい軽量圧縮技術を提案する。
論文 参考訳(メタデータ) (2021-05-15T00:10:12Z) - Lightweight compression of neural network feature tensors for
collaborative intelligence [32.03465747357384]
協調インテリジェンスアプリケーションでは、ディープニューラルネットワーク(DNN)の一部は、携帯電話やエッジデバイスなどの比較的低い複雑さのデバイスにデプロイされます。
本稿では,スプリットdnn層のアクティベーションをコード化するために設計された新しい軽量圧縮技術を提案する。
論文 参考訳(メタデータ) (2021-05-12T23:41:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。