論文の概要: CROVIA: Seeing Drone Scenes from Car Perspective via Cross-View
Adaptation
- arxiv url: http://arxiv.org/abs/2304.07199v1
- Date: Fri, 14 Apr 2023 15:20:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 13:08:51.420254
- Title: CROVIA: Seeing Drone Scenes from Car Perspective via Cross-View
Adaptation
- Title(参考訳): CROVIA: クロスビュー・アダプテーションで車からドローンシーンを見る
- Authors: Thanh-Dat Truong, Chi Nhan Duong, Ashley Dowling, Son Lam Phung,
Jackson Cothren, Khoa Luu
- Abstract要約: 道路車両の視界から得られた知識をUAVの視界に適応させる新しいCROVIA(Cross-View Adaptation)アプローチを提案する。
まず、ビュー間の幾何学的相関に基づいて、クロスビュー適応に対する新しい幾何学的制約を導入する。
第2に、画像空間からのクロスビュー相関を、ペアオンロードとUAVのビューデータを必要としないセグメンテーション空間に効果的に転送する。
- 参考スコア(独自算出の注目度): 20.476683921252867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding semantic scene segmentation of urban scenes captured from the
Unmanned Aerial Vehicles (UAV) perspective plays a vital role in building a
perception model for UAV. With the limitations of large-scale densely labeled
data, semantic scene segmentation for UAV views requires a broad understanding
of an object from both its top and side views. Adapting from well-annotated
autonomous driving data to unlabeled UAV data is challenging due to the
cross-view differences between the two data types. Our work proposes a novel
Cross-View Adaptation (CROVIA) approach to effectively adapt the knowledge
learned from on-road vehicle views to UAV views. First, a novel geometry-based
constraint to cross-view adaptation is introduced based on the geometry
correlation between views. Second, cross-view correlations from image space are
effectively transferred to segmentation space without any requirement of paired
on-road and UAV view data via a new Geometry-Constraint Cross-View (GeiCo)
loss. Third, the multi-modal bijective networks are introduced to enforce the
global structural modeling across views. Experimental results on new cross-view
adaptation benchmarks introduced in this work, i.e., SYNTHIA to UAVID and GTA5
to UAVID, show the State-of-the-Art (SOTA) performance of our approach over
prior adaptation methods
- Abstract(参考訳): 無人航空機(UAV)の観点から捉えた都市景観のセグメンテーションを理解することは、UAVの知覚モデルを構築する上で重要な役割を果たす。
大規模にラベル付けされたデータの制限により、UAVビューのセマンティックシーンセグメンテーションは、オブジェクトの上部と側面の両方から広く理解する必要がある。
十分な注釈付き自律運転データからラベルなしのUAVデータへの適応は、2つのデータタイプの違いにより困難である。
本研究は,車載ビューからUAVビューへ学習した知識を効果的に適用するための,新しいクロスビュー適応(CROVIA)アプローチを提案する。
まず、ビュー間の幾何相関に基づいて、クロスビュー適応に対する新しい幾何ベースの制約を導入する。
第2に、画像空間からのクロスビュー相関は、新しいGeometry-Constraint Cross-View (GeiCo)損失を介して、ペアオンロードとUAVビューデータを必要としないセグメンテーション空間に効果的に転送される。
第3に,マルチモーダル・バイジェクティブ・ネットワークの導入により,ビュー間のグローバル構造モデリングが実現される。
この研究で導入された新しいクロスビュー適応ベンチマーク、すなわち、UAVIDとGTA5とUAVIDに導入されたSynTHIAに関する実験結果は、我々のアプローチにおける事前適応手法に対するSOTA(State-of-the-Art)の性能を示す。
関連論文リスト
- PPTFormer: Pseudo Multi-Perspective Transformer for UAV Segmentation [18.585299793391748]
我々は,新しいtextbfPseudo Multi-textbfPerspective textbfTranstextbfformerネットワークであるPTFormerを紹介する。
提案手法は,マルチパースペクティブ学習の強化のための疑似視点を作成することによって,実際のマルチパースペクティブデータの必要性を回避する。
論文 参考訳(メタデータ) (2024-06-28T03:43:49Z) - View-Centric Multi-Object Tracking with Homographic Matching in Moving UAV [43.37259596065606]
無人航空機(UAV)のシナリオの移動における多目的追跡(MOT)の課題に対処する。
シーン背景の変化は、従来のフレーム間オブジェクトIOUアソシエーションメソッドを非効率にするだけでなく、オブジェクトに大きなビューシフトをもたらす。
このフレームワークは,MOTの課題を解決するために,シーン変更に固有のHomographyを初めて活用する。
論文 参考訳(メタデータ) (2024-03-16T06:48:33Z) - View Distribution Alignment with Progressive Adversarial Learning for
UAV Visual Geo-Localization [10.442998017077795]
無人航空機(UAV)の視覚的ジオローカライゼーションは、異なるビュー、すなわちUAVビューと衛星ビューから取得した同じ地理的ターゲットの画像とマッチングすることを目的としている。
以前の作業では、UAVや衛星が撮影した画像を共有特徴空間にマッピングし、位置に依存した特徴を学習するための分類フレームワークを使用していた。
本稿では,2つのビューの分布アライメントを導入し,共通空間における距離を短縮する。
論文 参考訳(メタデータ) (2024-01-03T06:58:09Z) - Towards Viewpoint Robustness in Bird's Eye View Segmentation [85.99907496019972]
AV知覚モデルがカメラ視点の変化にどのように影響するかを考察する。
投機時のピッチ、ヨー、深さ、高さへの小さな変化は、大きな性能低下につながる。
本稿では,新しいビュー合成技術を導入し,収集したデータをターゲットリグの視点に変換する手法を提案する。
論文 参考訳(メタデータ) (2023-09-11T02:10:07Z) - SGDViT: Saliency-Guided Dynamic Vision Transformer for UAV Tracking [12.447854608181833]
本研究は、UAV追跡のための新しいサリエンシ誘導動的視覚変換器(SGDViT)を提案する。
提案手法は,クロスコリレーション操作を洗練させるために,タスク固有の新たなオブジェクト・サリエンシ・マイニング・ネットワークを設計する。
軽量な塩分フィルタリング変換器は、さらに塩分情報を洗練し、外観情報に焦点を当てる。
論文 参考訳(メタデータ) (2023-03-08T05:01:00Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - Self-aligned Spatial Feature Extraction Network for UAV Vehicle
Re-identification [3.449626476434765]
同じ色とタイプを持つ車両は、UAVの観点から非常に類似した外観を示している。
最近の研究は、地域的特徴と構成要素的特徴によって区別される情報を抽出する傾向がある。
効率的なきめ細かい特徴を抽出し、退屈な注釈付け作業を避けるために、この手紙は教師なしの自己整合ネットワークを開発する。
論文 参考訳(メタデータ) (2022-01-08T14:25:54Z) - Structured Bird's-Eye-View Traffic Scene Understanding from Onboard
Images [128.881857704338]
本研究では,BEV座標における局所道路網を表す有向グラフを,単眼カメラ画像から抽出する問題について検討する。
提案手法は,BEV平面上の動的物体を検出するために拡張可能であることを示す。
我々は、強力なベースラインに対するアプローチを検証するとともに、ネットワークが優れたパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-10-05T12:40:33Z) - Visual Relationship Forecasting in Videos [56.122037294234865]
本稿では,視覚関係予測(Visual Relation Forecasting:VRF)というタスクをビデオに提示する。
Hフレームと対象オブジェクトのペアを与えられたVRFは、視覚的な証拠なしに次のTフレームに対する将来の相互作用を予測することを目的としている。
VRFタスクを評価するために,VRF-AGとVRF-VidORという2つのビデオデータセットを導入する。
論文 参考訳(メタデータ) (2021-07-02T16:43:19Z) - Parsing-based View-aware Embedding Network for Vehicle Re-Identification [138.11983486734576]
本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,解析に基づくPVEN(View-Aware Embedding Network)を提案する。
3つのデータセットで行った実験により、我々のモデルは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-04-10T13:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。