論文の概要: Exploration of Optimized Semantic Segmentation Architectures for
edge-Deployment on Drones
- arxiv url: http://arxiv.org/abs/2007.02839v1
- Date: Mon, 6 Jul 2020 15:49:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 02:01:30.957624
- Title: Exploration of Optimized Semantic Segmentation Architectures for
edge-Deployment on Drones
- Title(参考訳): ドローンのエッジ配置に最適化されたセマンティクスセグメンテーションアーキテクチャの検討
- Authors: Vivek Parmar, Narayani Bhatia, Shubham Negi and Manan Suri
- Abstract要約: 本稿では,UAVデータ処理におけるセマンティックセグメンテーションアーキテクチャにおけるネットワークパラメータの影響について分析する。
我々は,FPN-EfficientNetB3 の最適ネットワークアーキテクチャを Imagenet に基づいて事前学習したバックボーンエンコーダで同定する。
Model: FPNとBackbone: InResnetV2と比較して、メモリの4.1倍の節約と10%のレイテンシ改善を実現しています。
- 参考スコア(独自算出の注目度): 5.349223987137843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present an analysis on the impact of network parameters for
semantic segmentation architectures in context of UAV data processing. We
present the analysis on the DroneDeploy Segmentation benchmark. Based on the
comparative analysis we identify the optimal network architecture to be
FPN-EfficientNetB3 with pretrained encoder backbones based on Imagenet Dataset.
The network achieves IoU score of 0.65 and F1-score of 0.71 over the validation
dataset. We also compare the various architectures in terms of their memory
footprint and inference latency with further exploration of the impact of
TensorRT based optimizations. We achieve memory savings of ~4.1x and latency
improvement of 10% compared to Model: FPN and Backbone: InceptionResnetV2.
- Abstract(参考訳): 本稿では,uavデータ処理の文脈における意味セグメンテーションアーキテクチャに対するネットワークパラメータの影響について分析を行う。
我々はDroneDeploy Segmentationベンチマークで分析を行った。
比較分析に基づいて,imagenetデータセットに基づくプリトレーニングエンコーダバックボーンを用いた,fpn効率の高いnetb3ネットワークアーキテクチャを同定した。
このネットワークは、検証データセットに対して、IoUスコア0.65とF1スコア0.71を達成する。
また、メモリフットプリントと推論レイテンシの観点から様々なアーキテクチャを比較し、TensorRTベースの最適化の影響をさらに調査する。
Model: FPNとBackbone: InceptionResnetV2と比較して、メモリの節約が約4.1倍、レイテンシが10%向上しました。
関連論文リスト
- EffiSegNet: Gastrointestinal Polyp Segmentation through a Pre-Trained EfficientNet-based Network with a Simplified Decoder [0.8892527836401773]
EffiSegNetは、トレーニング済みの畳み込みニューラルネットワーク(CNN)をバックボーンとして、トランスファーラーニングを活用する新しいセグメンテーションフレームワークである。
Kvasir-SEGデータセットを用いて消化管ポリープセグメンテーションタスクの評価を行い,その成果を得た。
論文 参考訳(メタデータ) (2024-07-23T08:54:55Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Offshore Wind Plant Instance Segmentation Using Sentinel-1 Time Series,
GIS, and Semantic Segmentation Models [0.3413711585591077]
本研究は,セマンティックセグメンテーションモデルとSentinel-1時系列を用いて,インスタンスレベルでオフショア風力プラントを検出することを目的とする。
LinkNetは最高パフォーマンスモデルで、続いてU-Net++とU-Netが続く一方、FPNとDeepLabv3+は最悪の結果を示した。
論文 参考訳(メタデータ) (2023-12-14T09:49:15Z) - DCP-NAS: Discrepant Child-Parent Neural Architecture Search for 1-bit
CNNs [53.82853297675979]
バイナリ重みとアクティベーションを備えた1ビット畳み込みニューラルネットワーク(CNN)は、リソース制限された組み込みデバイスの可能性を示している。
自然なアプローチの1つは、NASの計算とメモリコストを削減するために1ビットCNNを使用することである。
本稿では,1ビットCNNを効率的に探索するためにDCP-NAS(Disrepant Child-Parent Neural Architecture Search)を提案する。
論文 参考訳(メタデータ) (2023-06-27T11:28:29Z) - SmoothNets: Optimizing CNN architecture design for differentially
private deep learning [69.10072367807095]
DPSGDは、サンプルごとの勾配の切り抜きとノイズ付けを必要とする。
これにより、非プライベートトレーニングと比較してモデルユーティリティが削減される。
SmoothNetと呼ばれる新しいモデルアーキテクチャを蒸留し,DP-SGDトレーニングの課題に対するロバスト性の向上を特徴とした。
論文 参考訳(メタデータ) (2022-05-09T07:51:54Z) - Cyclic Differentiable Architecture Search [99.12381460261841]
微分可能なArchiTecture Search(DARTS)は、ニューラルアーキテクチャサーチにおいて大きな注目を集めている。
我々はCDARTSと呼ばれる新しい共同目標と新しい周期微分可能なArchiTecture Searchフレームワークを提案する。
DARTS検索の分野では、CIFAR10で97.52%、ImageNetで76.3%、トップ1で76.3%の精度を達成した。
論文 参考訳(メタデータ) (2020-06-18T17:55:19Z) - Neural Architecture Optimization with Graph VAE [21.126140965779534]
連続空間におけるネットワークアーキテクチャを最適化するための効率的なNAS手法を提案する。
フレームワークは、エンコーダ、パフォーマンス予測器、複雑性予測器、デコーダの4つのコンポーネントを共同で学習する。
論文 参考訳(メタデータ) (2020-06-18T07:05:48Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - Rethinking Depthwise Separable Convolutions: How Intra-Kernel
Correlations Lead to Improved MobileNets [6.09170287691728]
CNNのための高効率なビルディングブロックとして,ブループリント分離型畳み込み(BSConv)を導入する。
それらは、訓練されたモデルからカーネル特性の定量的解析によって動機付けられている。
我々のアプローチは、深く分離可能な畳み込みの適用のために、完全な理論的導出、解釈、正当化を提供する。
論文 参考訳(メタデータ) (2020-03-30T15:23:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。