論文の概要: Siamese Object Tracking for Vision-Based UAM Approaching with Pairwise
Scale-Channel Attention
- arxiv url: http://arxiv.org/abs/2211.14564v1
- Date: Sat, 26 Nov 2022 13:33:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 19:59:33.041774
- Title: Siamese Object Tracking for Vision-Based UAM Approaching with Pairwise
Scale-Channel Attention
- Title(参考訳): Pairwise Scale-Channel Attentionを用いた視覚ベースUAMのためのシームズ物体追跡
- Authors: Guangze Zheng, Changhong Fu, Junjie Ye, Bowen Li, Geng Lu, Jia Pan
- Abstract要約: 本研究は、視覚に基づくUAMアプローチのためのペアワイズスケールチャネルアテンション(SiamSA)を備えた新しいSiameseネットワークを提案する。
SiamSAは、ペアワイズスケールチャネルアテンションネットワーク(PSAN)とスケールアウェアアンカー提案ネットワーク(SA-APN)で構成されている。
- 参考スコア(独自算出の注目度): 27.114231832842034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although the manipulating of the unmanned aerial manipulator (UAM) has been
widely studied, vision-based UAM approaching, which is crucial to the
subsequent manipulating, generally lacks effective design. The key to the
visual UAM approaching lies in object tracking, while current UAM tracking
typically relies on costly model-based methods. Besides, UAM approaching often
confronts more severe object scale variation issues, which makes it
inappropriate to directly employ state-of-the-art model-free Siamese-based
methods from the object tracking field. To address the above problems, this
work proposes a novel Siamese network with pairwise scale-channel attention
(SiamSA) for vision-based UAM approaching. Specifically, SiamSA consists of a
pairwise scale-channel attention network (PSAN) and a scale-aware anchor
proposal network (SA-APN). PSAN acquires valuable scale information for feature
processing, while SA-APN mainly attaches scale awareness to anchor proposing.
Moreover, a new tracking benchmark for UAM approaching, namely UAMT100, is
recorded with 35K frames on a flying UAM platform for evaluation. Exhaustive
experiments on the benchmarks and real-world tests validate the efficiency and
practicality of SiamSA with a promising speed. Both the code and UAMT100
benchmark are now available at https://github.com/vision4robotics/SiamSA.
- Abstract(参考訳): 無人航空機マニピュレータ(UAM)の操作は広く研究されているが、その後の操作に不可欠な視覚ベースのUAMアプローチは、一般的には効果的な設計を欠いている。
視覚的 UAM のアプローチの鍵はオブジェクト追跡にあるが、現在の UAM のトラッキングは通常、コストのかかるモデルベースの手法に依存している。
加えて、UAMアプローチはより厳しいオブジェクトスケール変動問題に直面し、オブジェクトトラッキングフィールドから最先端のモデルフリーなSiameseベースのメソッドを直接使用するのは不適切である。
上記の問題に対処するために、視覚に基づくUAMアプローチのためのペアワイズスケールチャネルアテンション(SiamSA)を備えた新しいSiameseネットワークを提案する。
具体的には、SamSAは、ペアワイズスケールチャネルアテンションネットワーク(PSAN)とスケールアウェアアンカー提案ネットワーク(SA-APN)から構成される。
PSANは、機能処理に有用なスケール情報を取得し、SA-APNは、主にスケール認識をアンカープロポーシングにアタッチする。
さらに、UAMアプローチのための新しいトラッキングベンチマーク、すなわちUAMT100は、飛行中のUAMプラットフォーム上で35Kフレームで記録され、評価される。
ベンチマークと実世界のテストでの試験実験は、有望な速度でSiamSAの効率性と実用性を検証する。
コードとUAMT100ベンチマークはhttps://github.com/vision4robotics/SiamSAで公開されている。
関連論文リスト
- Promptable Anomaly Segmentation with SAM Through Self-Perception Tuning [63.55145330447408]
Segment Anything Model (SAM) は、その顕著な一般化能力により、異常セグメンテーションタスクにおいて大きな進歩を遂げている。
SAMを直接適用する既存のメソッドは、しばしばドメインシフトの問題を見落としている。
本稿では, SAMの異常セグメンテーションに対する知覚能力を高めることを目的とした, 自己パーセプティノンチューニング(SPT)手法を提案する。
論文 参考訳(メタデータ) (2024-11-26T08:33:25Z) - Adapting Segment Anything Model for Unseen Object Instance Segmentation [70.60171342436092]
Unseen Object Instance(UOIS)は、非構造環境で動作する自律ロボットにとって不可欠である。
UOISタスクのためのデータ効率のよいソリューションであるUOIS-SAMを提案する。
UOIS-SAMは、(i)HeatmapベースのPrompt Generator(HPG)と(ii)SAMのマスクデコーダに適応する階層識別ネットワーク(HDNet)の2つの重要なコンポーネントを統合する。
論文 参考訳(メタデータ) (2024-09-23T19:05:50Z) - SOOD++: Leveraging Unlabeled Data to Boost Oriented Object Detection [59.868772767818975]
本稿では,SOOD++ と呼ばれる簡易かつ効果的な半教師付きオブジェクト指向検出手法を提案する。
具体的には、空中画像からの物体は、通常任意の向き、小さなスケール、集約である。
様々なラベル付き環境下での多目的オブジェクトデータセットに対する大規模な実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-07-01T07:03:51Z) - UNIAA: A Unified Multi-modal Image Aesthetic Assessment Baseline and Benchmark [22.487379136024018]
本論文では,Unified Multi-modal Image Aesthetic Assessment (UNIAA) フレームワークを提案する。
IAAの視覚的知覚と言語能力の両面でMLLMを選択し、既存のデータセットを統一的で高品質なビジュアル命令チューニングデータに変換するための低コストなパラダイムを確立する。
我々のモデルは審美的知覚においてGPT-4Vよりも優れており、中等階級の人間に近づきさえする。
論文 参考訳(メタデータ) (2024-04-15T09:47:48Z) - Boosting Segment Anything Model Towards Open-Vocabulary Learning [69.42565443181017]
Segment Anything Model (SAM)は、新しいパラダイムビジョン基盤モデルとして登場した。
SAMは様々な領域で応用や適応を発見できるが、その主な制限はオブジェクトの意味を把握できないことである。
我々は,SAMとオープン語彙オブジェクト検出器をエンドツーエンドフレームワークでシームレスに統合するSamborを提案する。
論文 参考訳(メタデータ) (2023-12-06T17:19:00Z) - Siamese Object Tracking for Unmanned Aerial Vehicle: A Review and
Comprehensive Analysis [15.10348491862546]
無人航空機(UAV)による視覚的物体追跡は幅広い応用を可能にしている。
シームズネットワークは、精度、堅牢性、スピードの有望なバランスを保ちながら、視覚的オブジェクト追跡に光を当てている。
論文 参考訳(メタデータ) (2022-05-09T13:53:34Z) - Vision-Based UAV Self-Positioning in Low-Altitude Urban Environments [20.69412701553767]
無人航空機(UAV)は安定した位置決めのために衛星システムに依存している。
このような状況下では、視覚に基づく技術が代替手段として機能し、UAVの自己配置能力を確実にする。
本稿では,UAV自己配置タスク用に設計された最初の公開データセットであるDenseUAVを提案する。
論文 参考訳(メタデータ) (2022-01-23T07:18:55Z) - TSA-Net: Tube Self-Attention Network for Action Quality Assessment [4.220843694492582]
行動品質評価(AQA)のためのチューブ自己注意ネットワーク(TSA-Net)を提案する。
TSA-Netは、1)高い計算効率、2)高い柔軟性、3)最先端技術の性能。
論文 参考訳(メタデータ) (2022-01-11T02:25:27Z) - MAML is a Noisy Contrastive Learner [72.04430033118426]
モデルに依存しないメタラーニング(MAML)は、今日では最も人気があり広く採用されているメタラーニングアルゴリズムの1つである。
我々は、MAMLの動作メカニズムに対する新たな視点を提供し、以下に示すように、MAMLは、教師付きコントラスト目的関数を用いたメタラーナーに類似している。
このような干渉を軽減するため, 単純だが効果的な手法であるゼロ化手法を提案する。
論文 参考訳(メタデータ) (2021-06-29T12:52:26Z) - SiamAPN++: Siamese Attentional Aggregation Network for Real-Time UAV
Tracking [16.78336740951222]
リアルタイムUAVトラッキングには,新しい注意型シームズトラッカー(SiamAPN++)が提案されている。
SiamAPN++は、リアルタイムで有望なトラッキング結果を達成する。
論文 参考訳(メタデータ) (2021-06-16T14:28:57Z) - Pseudo-IoU: Improving Label Assignment in Anchor-Free Object Detection [60.522877583407904]
現在のアンカーフリー物体検出器は非常に単純で有効であるが、正確なラベル割り当て方法がない。
Pseudo-Intersection-over-Union(Pseudo-IoU): アンカーフリーなオブジェクト検出フレームワークに、より標準化され、正確な割り当てルールをもたらす単純なメトリックである。
本手法はベルやホイッスルを使わずに最新のアンカーフリー手法と同等の性能を実現する。
論文 参考訳(メタデータ) (2021-04-29T02:48:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。