論文の概要: TwinLiteNetPlus: A Stronger Model for Real-time Drivable Area and Lane Segmentation
- arxiv url: http://arxiv.org/abs/2403.16958v3
- Date: Sun, 09 Mar 2025 03:09:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:41:58.015561
- Title: TwinLiteNetPlus: A Stronger Model for Real-time Drivable Area and Lane Segmentation
- Title(参考訳): TwinLiteNetPlus: リアルタイム乾燥地域とレーンセグメンテーションのためのより強力なモデル
- Authors: Quang-Huy Che, Duc-Tri Le, Minh-Quan Pham, Vinh-Tiep Nguyen, Duc-Khai Lam,
- Abstract要約: 本稿では,効率と精度のバランスをとるモデルであるTwinLiteNetPlusを紹介する。
TwinLiteNetPlusは、標準および深さ的に分離可能な拡張畳み込みを導入し、高い精度を維持しながら複雑さを低減している。
TwinLiteNetPlusは、様々な組み込みデバイスで厳格に評価され、有望なレイテンシと電力効率を示している。
- 参考スコア(独自算出の注目度): 1.1027204173383738
- License:
- Abstract: Semantic segmentation is crucial for autonomous driving, particularly for the tasks of Drivable Area and Lane Segmentation, ensuring safety and navigation. To address the high computational costs of current state-of-the-art (SOTA) models, this paper introduces TwinLiteNetPlus, a model capable of balancing efficiency and accuracy. TwinLiteNetPlus incorporates standard and depth-wise separable dilated convolutions, reducing complexity while maintaining high accuracy. It is available in four configurations, from the robust 1.94 million-parameter TwinLiteNetPlus_{Large} to the ultra-lightweight 34K-parameter TwinLiteNetPlus_{Nano}. Notably, TwinLiteNetPlus_{Large} attains a 92.9% mIoU (mean Intersection over Union) for Drivable Area Segmentation and a 34.2% IoU (Intersection over Union) for Lane Segmentation. These results achieve remarkable performance, surpassing current state-of-the-art models while only requiring 11 times fewer Floating Point Operations (FLOPs) for computation. Rigorously evaluated on various embedded devices, TwinLiteNetPlus demonstrates promising latency and power efficiency, underscoring its potential for real-world autonomous vehicle applications. The code is available on https://github.com/chequanghuy/TwinLiteNetPlus.
- Abstract(参考訳): セマンティックセグメンテーションは自動運転、特にドライビング・エリアとレーンセグメンテーションの作業において、安全とナビゲーションの確保に不可欠である。
現状技術モデル(SOTA)の高計算コストに対処するために,効率と精度のバランスをとることのできるモデルであるTwinLiteNetPlusを提案する。
TwinLiteNetPlusは、標準および深さ的に分離可能な拡張畳み込みを導入し、高い精度を維持しながら複雑さを低減している。
これは、ロバストな1.94百万パラメートルのTwinLiteNetPlus_{Large}から超軽量の34KパラメートルのTwinLiteNetPlus_{Nano}まで、4つの構成で利用できる。
特に、TwinLiteNetPlus_{Large}は、生産可能な地域分割のための92.9% mIoU、レーン分割のための34.2% IoUに達する。
これらの結果は、現在の最先端モデルを超え、計算に浮動小数点演算(FLOP)を11倍少なくするだけである。
TwinLiteNetPlusは、様々な組み込みデバイスで厳格に評価され、将来性のあるレイテンシと電力効率を示し、現実の自動運転車アプリケーションの可能性を強調している。
コードはhttps://github.com/chequanghuy/TwinLiteNetPlusで公開されている。
関連論文リスト
- LUT-DLA: Lookup Table as Efficient Extreme Low-Bit Deep Learning Accelerator [11.167930856636161]
本稿では、ベクトル量子化を利用してニューラルネットワークモデルをLUTに変換するLUT-DLA(Look-Up Table (LUT) Deep Learning Accelerator Framework)を紹介する。
LUT-DLAは、それぞれ$1.4$$7.0times$と$1.5$$$146.1times$で、電力効率と面積効率の改善を実現していることを示す。
論文 参考訳(メタデータ) (2025-01-18T05:27:25Z) - NuLite -- Lightweight and Fast Model for Nuclei Instance Segmentation and Classification [4.2193475197905705]
病理学では、ヘマトキシリンとエオシン(H&E)スライドの正確かつ効率的な解析は、タイムリーかつ効果的ながん診断に不可欠である。
我々は,SOTA(State-of-the-art)軽量CNNであるFast-ViT上に明示的に設計された,新しい畳み込みニューラルネットワークであるNuLiteを導入する。
我々は、PanNukeデータセットでトレーニングしたNuLite-S、NuLite-M、NuLite-Hの3つのモデルを得た。実験結果、我々のモデルは、汎視的品質と検出の点でCellViT(SOTA)と同等であることが証明された。
論文 参考訳(メタデータ) (2024-08-03T14:48:34Z) - Dense Training, Sparse Inference: Rethinking Training of Mixture-of-Experts Language Models [62.4691912312317]
Mixture-of-Experts (MoE)言語モデルは、性能を犠牲にすることなく、高密度モデルと比較して計算コストを2~4ドル削減することができる。
本稿では,強力な計算とパラメータ効率を実現するMOEモデル(DS-MoE)のためのハイブリッド密集型トレーニングおよびスパース推論フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-08T14:39:49Z) - ParFormer: A Vision Transformer with Parallel Mixer and Sparse Channel Attention Patch Embedding [9.144813021145039]
本稿では、並列ミキサーとスパースチャネル注意パッチ埋め込み(SCAPE)を組み込んだ視覚変換器であるParFormerを紹介する。
ParFormerは、畳み込み機構とアテンション機構を組み合わせることで、特徴抽出を改善する。
エッジデバイスのデプロイメントでは、ParFormer-Tのスループットは278.1イメージ/秒で、EdgeNeXt-Sよりも1.38ドル高い。
より大型のParFormer-Lは83.5%のTop-1精度に達し、精度と効率のバランスの取れたトレードオフを提供する。
論文 参考訳(メタデータ) (2024-03-22T07:32:21Z) - Fully $1\times1$ Convolutional Network for Lightweight Image
Super-Resolution [79.04007257606862]
ディープモデルは、シングルイメージ超解像(SISR)タスク、特に大きなカーネルを持つ大きなモデル(3時間3ドル以上)において重要なプロセスを持つ。
$1times1$の畳み込みは計算効率を大幅に向上させるが、局所的な空間表現の集約に苦労する。
我々は、Shift-Conv-based Network (SCNet) という、シンプルで効果的な1時間1ドルの畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2023-07-30T06:24:03Z) - TwinLiteNet: An Efficient and Lightweight Model for Driveable Area and
Lane Segmentation in Self-Driving Cars [0.0]
本稿では、駆動可能領域と車線分割のための軽量モデルを提案する。
BDD100Kデータセット上でTwinLiteNetを評価し,最新のモデルと比較した。
具体的には、TwinLiteNetは、乾燥領域タスクで91.3%、レーン検出タスクで31.08%のIoUというmIoUスコアを達成している。
論文 参考訳(メタデータ) (2023-07-20T08:53:47Z) - 1M parameters are enough? A lightweight CNN-based model for medical
image segmentation [0.4129225533930966]
軽量なU-Netベースのモデルを模索しており、同じ状態を維持したり、より優れたパフォーマンス、すなわちU-Liteを実現できます。
我々は,CNNの強みを生かし,演算パラメータの著しい削減を図るために,Depthwise Separable Convolutionの原理に基づいてU-Liteを設計する。
全体として、U-Lite は 878K のパラメータしか持たず、従来の U-Net の35倍も小さく、現代の Transformer ベースのモデルよりもはるかに少ない。
論文 参考訳(メタデータ) (2023-06-28T11:17:37Z) - Lightweight and Progressively-Scalable Networks for Semantic
Segmentation [100.63114424262234]
マルチスケール学習フレームワークは,セマンティックセグメンテーションを向上する有効なモデルのクラスと見なされてきた。
本稿では,畳み込みブロックの設計と,複数スケールにわたる相互作用の仕方について,徹底的に解析する。
我々は,軽量で拡張性の高いネットワーク(LPS-Net)を考案した。
論文 参考訳(メタデータ) (2022-07-27T16:00:28Z) - SFNet: Faster and Accurate Semantic Segmentation via Semantic Flow [88.97790684009979]
性能を改善するための一般的な実践は、強力な意味表現を持つ高解像度の特徴写像を得ることである。
隣接レベルの特徴マップ間のテキストセマンティックフローを学習するためのフローアライメントモジュール(FAM)を提案する。
また,高分解能特徴写像と低分解能特徴写像を直接整列するGated Dual Flow Alignment Moduleを提案する。
論文 参考訳(メタデータ) (2022-07-10T08:25:47Z) - EdgeNeXt: Efficiently Amalgamated CNN-Transformer Architecture for
Mobile Vision Applications [68.35683849098105]
入力テンソルを複数のチャネルグループに分割するSDTAエンコーダを導入する。
1.3Mパラメータを持つEdgeNeXtモデルでは、ImageNet-1Kで71.2%のTop-1精度を実現している。
パラメータ5.6MのEdgeNeXtモデルでは、ImageNet-1Kで79.4%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2022-06-21T17:59:56Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。