論文の概要: Progressive Self-Distillation for Ground-to-Aerial Perception Knowledge
Transfer
- arxiv url: http://arxiv.org/abs/2208.13404v3
- Date: Sun, 16 Apr 2023 06:31:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 00:26:27.292666
- Title: Progressive Self-Distillation for Ground-to-Aerial Perception Knowledge
Transfer
- Title(参考訳): 地盤間知覚知識伝達のための漸進的自己蒸留
- Authors: Junjie Hu and Chenyou Fan and Mete Ozay and Hua Feng and Yuan Gao and
Tin Lun Lam
- Abstract要約: 我々は、ドローンが飛行高度の異なる環境でどのように認識できるかという、現実的な問題はまだ検討されていない。
現在の半教師あり学習法は視点差では有効ではない。
本研究では、地上視点のラベル付きデータと飛行視点のラベル付きデータのみを用いて、ドローンの認識を可能にするプログレッシブ半教師付き学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 28.214084837466025
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study a practical yet hasn't been explored problem: how a drone can
perceive in an environment from different flight heights. Unlike autonomous
driving, where the perception is always conducted from a ground viewpoint, a
flying drone may flexibly change its flight height due to specific tasks,
requiring the capability for viewpoint invariant perception. Tackling the such
problem with supervised learning will incur tremendous costs for data
annotation of different flying heights. On the other hand, current
semi-supervised learning methods are not effective under viewpoint differences.
In this paper, we introduce the ground-to-aerial perception knowledge transfer
and propose a progressive semi-supervised learning framework that enables drone
perception using only labeled data of ground viewpoint and unlabeled data of
flying viewpoints. Our framework has four core components: i) a dense viewpoint
sampling strategy that splits the range of vertical flight height into a set of
small pieces with evenly-distributed intervals, ii) nearest neighbor
pseudo-labeling that infers labels of the nearest neighbor viewpoint with a
model learned on the preceding viewpoint, iii) MixView that generates augmented
images among different viewpoints to alleviate viewpoint differences, and iv) a
progressive distillation strategy to gradually learn until reaching the maximum
flying height. We collect a synthesized and a real-world dataset, and we
perform extensive experimental analyses to show that our method yields 22.2%
and 16.9% accuracy improvement for the synthesized dataset and the real world.
Code and datasets are available on
https://github.com/FreeformRobotics/Progressive-Self-Distillation-for-Ground-to-Aerial-Perception-Kn owledge-Transfer.
- Abstract(参考訳): 我々は、ドローンが飛行高度の異なる環境でどのように認識できるかという、現実的な問題はまだ検討されていない。
地上からの認識が常に行われる自動運転とは異なり、飛行中のドローンは、特定のタスクによって飛行高度を柔軟に変化させ、視点不変の知覚能力を必要とする。
教師あり学習でこのような問題に取り組むことは、異なる飛行高度のデータアノテーションに多大なコストをもたらす。
一方,現状の半教師あり学習法は視点差では有効ではない。
本稿では,地上視点のラベル付きデータと飛行視点のラベルなしデータのみを用いて,ドローンの認識を可能にするプログレッシブな半教師付き学習フレームワークを提案する。
私たちのフレームワークには4つのコアコンポーネントがあります。
一 垂直飛行高度の範囲を均等に分散した小片の集合に分割する密集した視点サンプリング戦略
二 最寄りの近傍の視点のラベルを先行の視点で学習したモデルで推測する近接隣人の擬似ラベル
三 視点の相違を緩和するため、異なる視点で拡張画像を生成するミックスビュー
四 最大飛行高度に達するまで段階的に学習する段階的な蒸留戦略
合成データセットと実世界のデータセットを収集し,本手法が合成データセットと実世界において22.2%と16.9%の精度向上をもたらすことを示すために,広範な実験解析を行った。
コードとデータセットはhttps://github.com/FreeformRobotics/Progressive-Self-Distillation-for-Ground-to-Aerial-Perception-Kn owledge-Transferで公開されている。
関連論文リスト
- CARLA Drone: Monocular 3D Object Detection from a Different Perspective [33.30818773844958]
この研究は、異なるカメラ視点で3D検出フレームワークを拡張評価することを提唱している。
我々は、CDroneというCARLA Droneデータセットを導入し、ドローンビューをシミュレートし、既存のベンチマークにおけるカメラ視点の多様性を大幅に拡大する。
我々は、GroundMixと呼ばれる効果的なデータ拡張パイプラインを開発し、その識別要素は、トレーニング画像の3D一貫性向上のためのグラウンドの利用である。
論文 参考訳(メタデータ) (2024-08-21T19:25:03Z) - Pixel to Elevation: Learning to Predict Elevation Maps at Long Range using Images for Autonomous Offroad Navigation [10.898724668444125]
本稿では,車載エゴセントリック画像のみをリアルタイムに利用して,長距離の地形標高マップを予測できる学習型アプローチを提案する。
複雑で非構造的な地形における自律型オフロードロボットナビゲーションへの提案手法の適用性を実験的に検証した。
論文 参考訳(メタデータ) (2024-01-30T22:37:24Z) - Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - SPOT: Scalable 3D Pre-training via Occupancy Prediction for Learning Transferable 3D Representations [76.45009891152178]
トレーニング-ファインタニングアプローチは、さまざまな下流データセットとタスクをまたいだトレーニング済みのバックボーンを微調整することで、ラベル付けの負担を軽減することができる。
本稿では, 一般表現学習が, 占領予測のタスクを通じて達成できることを, 初めて示す。
本研究は,LiDAR 点の理解を促進するとともに,LiDAR の事前訓練における今後の進歩の道を開くことを目的とする。
論文 参考訳(メタデータ) (2023-09-19T11:13:01Z) - T2FPV: Constructing High-Fidelity First-Person View Datasets From
Real-World Pedestrian Trajectories [9.44806128120871]
実世界のトップダウントラジェクトリ・データセットから高忠実度1人称ビュー・データセットを構築する方法T2FPVを提案する。
ETH/UCY歩行者データセットを用いて、対話する歩行者の自我中心の視覚データを生成する。
論文 参考訳(メタデータ) (2022-09-22T20:14:43Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - Data Augmentation for Object Detection via Differentiable Neural
Rendering [71.00447761415388]
注釈付きデータが乏しい場合、堅牢なオブジェクト検出器を訓練することは困難です。
この問題に対処する既存のアプローチには、ラベル付きデータからラベル付きデータを補間する半教師付き学習が含まれる。
オブジェクト検出のためのオフラインデータ拡張手法を導入し、新しいビューでトレーニングデータを意味的に補間する。
論文 参考訳(メタデータ) (2021-03-04T06:31:06Z) - A Flow Base Bi-path Network for Cross-scene Video Crowd Understanding in
Aerial View [93.23947591795897]
本稿では,これらの課題に対処し,ドローンから収集した視覚的データから参加者を自動的に理解する。
クロスシーンテストで発生する背景雑音を軽減するために, 二重ストリーム群カウントモデルを提案する。
極暗環境下での集団密度推定問題に対処するために,ゲームグランドセフトオートV(GTAV)によって生成された合成データを導入する。
論文 参考訳(メタデータ) (2020-09-29T01:48:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。