論文の概要: Source Feature Compression for Object Classification in Vision-Based
Underwater Robotics
- arxiv url: http://arxiv.org/abs/2112.13953v1
- Date: Tue, 28 Dec 2021 00:45:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-30 16:09:40.476616
- Title: Source Feature Compression for Object Classification in Vision-Based
Underwater Robotics
- Title(参考訳): 視覚に基づく水中ロボットにおける物体分類のための音源圧縮
- Authors: Xueyuan Zhao, Mehdi Rahmati, Dario Pompili
- Abstract要約: 水中ロボットにおける畳み込みニューラルネットワーク(CNN)に基づく物体分類のための2段階WHT(Walsh-Hadamard Transform)に基づく。
提案手法は, 学習に基づく水中物体分類作業において, 効果的に訓練時間を短縮できることを実証し, 検証した。
- 参考スコア(独自算出の注目度): 11.328151008009257
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: New efficient source feature compression solutions are proposed based on a
two-stage Walsh-Hadamard Transform (WHT) for Convolutional Neural Network
(CNN)-based object classification in underwater robotics. The object images are
firstly transformed by WHT following a two-stage process. The transform-domain
tensors have large values concentrated in the upper left corner of the matrices
in the RGB channels. By observing this property, the transform-domain matrix is
partitioned into inner and outer regions. Consequently, two novel partitioning
methods are proposed in this work: (i) fixing the size of inner and outer
regions; and (ii) adjusting the size of inner and outer regions adaptively per
image. The proposals are evaluated with an underwater object dataset captured
from the Raritan River in New Jersey, USA. It is demonstrated and verified that
the proposals reduce the training time effectively for learning-based
underwater object classification task and increase the accuracy compared with
the competing methods. The object classification is an essential part of a
vision-based underwater robot that can sense the environment and navigate
autonomously. Therefore, the proposed method is well-suited for efficient
computer vision-based tasks in underwater robotics applications.
- Abstract(参考訳): 水中ロボットにおける畳み込みニューラルネットワーク(CNN)に基づく物体分類のための2段階WHT(Walsh-Hadamard Transform)に基づく,効率的な特徴圧縮ソリューションを提案する。
対象画像は、まず2段階のプロセスに従ってwhtによって変換される。
変換領域テンソルは、rgbチャネルの行列の左上隅に集中する大きな値を持つ。
この性質を観察することにより、変換領域行列は内および外領域に分割される。
そこで本研究では, 2つの新しい分割手法を提案する。
(i)内外領域の大きさを固定すること。
(ii)画像ごとに内外領域の大きさを適応的に調整すること。
提案は、アメリカ合衆国ニュージャージー州のラリタン川(raritan river)から取得した水中オブジェクトデータセットを用いて評価される。
提案手法は,学習に基づく水中物体分類タスクにおいて,効果的にトレーニング時間を短縮し,競合手法と比較して精度を向上することを示す。
物体分類は、環境を感知し自律的にナビゲートできる視覚ベースの水中ロボットの重要な部分である。
そこで,提案手法は水中ロボット工学の効率的なコンピュータビジョンに基づくタスクに適している。
関連論文リスト
- On Vision Transformers for Classification Tasks in Side-Scan Sonar Imagery [0.0]
サイドスキャンソナー (SSS) 画像は海底の人工物体の分類においてユニークな課題を呈している。
本稿では、SSS画像のバイナリ分類タスクによく使用されるCNNアーキテクチャとともに、VTモデルの性能を厳格に比較する。
ViTベースのモデルは、f1スコア、精度、リコール、精度の指標で優れた分類性能を示す。
論文 参考訳(メタデータ) (2024-09-18T14:36:50Z) - Boosting Cross-Domain Point Classification via Distilling Relational Priors from 2D Transformers [59.0181939916084]
従来の3Dネットワークは主に局所幾何学的詳細に焦点を当て、局所幾何学間の位相構造を無視する。
そこで本稿では,大規模画像上においてよく訓練されたトランスフォーマーから前駆体を抽出する,新しい先駆体蒸留法を提案する。
PointDA-10とSim-to-Realデータセットの実験は、提案手法が点クラウド分類におけるUDAの最先端性能を一貫して達成していることを検証する。
論文 参考訳(メタデータ) (2024-07-26T06:29:09Z) - Graphical Object-Centric Actor-Critic [55.2480439325792]
本稿では,アクター批判とモデルに基づくアプローチを組み合わせたオブジェクト中心強化学習アルゴリズムを提案する。
変換器エンコーダを用いてオブジェクト表現とグラフニューラルネットワークを抽出し、環境のダイナミクスを近似する。
本アルゴリズムは,現状のモデルフリーアクター批判アルゴリズムよりも複雑な3次元ロボット環境と構成構造をもつ2次元環境において,より優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-10-26T06:05:12Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - Depth-Adapted CNNs for RGB-D Semantic Segmentation [2.341385717236931]
我々は、RGB畳み込みニューラルネットワーク(CNN)に深度情報を組み込む新しい枠組みを提案する。
具体的には、Z-ACNは2次元奥行き適応オフセットを生成し、RGB画像の特徴抽出を誘導する低レベル特徴に完全に制約される。
生成されたオフセットでは、基本的なCNN演算子を置き換えるために、2つの直感的で効果的な操作を導入する。
論文 参考訳(メタデータ) (2022-06-08T14:59:40Z) - IFOR: Iterative Flow Minimization for Robotic Object Rearrangement [92.97142696891727]
IFOR(Iterative Flow Minimization for Robotic Object Rearrangement)は、未知物体の物体再構成問題に対するエンドツーエンドの手法である。
本手法は,合成データのみを訓練しながら,散在するシーンや実世界に適用可能であることを示す。
論文 参考訳(メタデータ) (2022-02-01T20:03:56Z) - Scale Normalized Image Pyramids with AutoFocus for Object Detection [75.71320993452372]
スケール正規化画像ピラミッド(SNIP)が生成され、人間の視覚と同様に、異なるスケールで固定されたサイズ範囲内のオブジェクトにのみ参加する。
本研究では,オブジェクトを含む可能性のある固定サイズのサブリージョンのみで動作する,効率的な空間サブサンプリング手法を提案する。
結果のアルゴリズムはAutoFocusと呼ばれ、SNIPを使用する場合の推論では2.5~5倍のスピードアップとなる。
論文 参考訳(メタデータ) (2021-02-10T18:57:53Z) - Underwater object detection using Invert Multi-Class Adaboost with deep
learning [37.14538666012363]
小型物体検出のための新しいニューラルネットワークアーキテクチャであるSample-WeIghted hyPEr Network(SWIPENet)を提案する。
提案するSWIPENet+IMAフレームワークは,複数の最先端オブジェクト検出手法に対して,検出精度の向上を実現する。
論文 参考訳(メタデータ) (2020-05-23T15:30:38Z) - When CNNs Meet Random RNNs: Towards Multi-Level Analysis for RGB-D
Object and Scene Recognition [10.796613905980609]
オブジェクトおよびシーン認識タスクのための多モードRGB-D画像から識別的特徴表現を抽出する新しいフレームワークを提案する。
CNNアクティベーションの高次元性に対応するため、ランダムな重み付けプール方式が提案されている。
実験では、RNNステージにおける完全ランダム化構造がCNNアクティベーションを符号化し、識別的ソリッドな特徴を成功させることを確認した。
論文 参考訳(メタデータ) (2020-04-26T10:58:27Z) - A New Dataset, Poisson GAN and AquaNet for Underwater Object Grabbing [33.580474181751676]
本研究では,2,227枚の画像を含む3つのカテゴリ(サッカリ,ウニ,ヒノキ)からなる新しいデータセット(UDD)を提案する。
また,新しいPoisson-blending Generative Adversarial Network(Poisson GAN)とAquaNet(AquaNet)を提案する。
論文 参考訳(メタデータ) (2020-03-03T10:57:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。