論文の概要: Progressive Self-Distillation for Ground-to-Aerial Perception Knowledge
Transfer
- arxiv url: http://arxiv.org/abs/2208.13404v1
- Date: Mon, 29 Aug 2022 07:30:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 14:05:22.359980
- Title: Progressive Self-Distillation for Ground-to-Aerial Perception Knowledge
Transfer
- Title(参考訳): 地盤間知覚知識伝達のための漸進的自己蒸留
- Authors: Junjie Hu and Chenyou Fan and Hua Feng and Yuan Gao and Tin Lun Lam
- Abstract要約: 本研究では、飛行高度の異なる視点から、ドローンが環境の中でどのように知覚できるかを研究する。
飛行ドローンは、特定のタスクによって飛行高度を柔軟に変更し、視点不変の知覚能力を必要とする。
本研究では,地上視点のラベル付きデータと飛行視点のラベル付きデータのみを用いて,地上から航空への知識蒸留法を検討する。
- 参考スコア(独自算出の注目度): 22.69214736508621
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study a practical yet hasn't been explored problem: how a drone can
perceive in an environment from viewpoints of different flight heights. Unlike
autonomous driving where the perception is always conducted from a ground
viewpoint, a flying drone may flexibly change its flight height due to specific
tasks, requiring capability for viewpoint invariant perception. To reduce the
effort of annotation of flight data, we consider a ground-to-aerial knowledge
distillation method while using only labeled data of ground viewpoint and
unlabeled data of flying viewpoints. To this end, we propose a progressive
semi-supervised learning framework which has four core components: a dense
viewpoint sampling strategy that splits the range of vertical flight height
into a set of small pieces with evenly-distributed intervals, and at each
height we sample data from that viewpoint; the nearest neighbor pseudo-labeling
that infers labels of the nearest neighbor viewpoint with a model learned on
the preceding viewpoint; MixView that generates augmented images among
different viewpoints to alleviate viewpoint difference; and a progressive
distillation strategy to gradually learn until reaching the maximum flying
height. We collect a synthesized dataset and a real-world dataset, and we
perform extensive experiments to show that our method yields promising results
for different flight heights.
- Abstract(参考訳): 我々は、ドローンが飛行高度の異なる視点からどのように環境を知覚できるかという、現実的な問題はまだ検討されていない。
地上からの認識が常に行われる自律運転とは異なり、飛行ドローンは特定のタスクによって飛行高度を柔軟に変更し、視点不変の認識能力を必要とする。
飛行データの注記の手間を軽減するために,地上視点のラベル付きデータと飛行視点のラベルなしデータのみを用いながら,地上間知識蒸留法を検討する。
To this end, we propose a progressive semi-supervised learning framework which has four core components: a dense viewpoint sampling strategy that splits the range of vertical flight height into a set of small pieces with evenly-distributed intervals, and at each height we sample data from that viewpoint; the nearest neighbor pseudo-labeling that infers labels of the nearest neighbor viewpoint with a model learned on the preceding viewpoint; MixView that generates augmented images among different viewpoints to alleviate viewpoint difference; and a progressive distillation strategy to gradually learn until reaching the maximum flying height.
合成データセットと実世界のデータセットを収集し,提案手法が飛行高度の異なる有望な結果をもたらすことを示すため,広範な実験を行った。
関連論文リスト
- CARLA Drone: Monocular 3D Object Detection from a Different Perspective [33.30818773844958]
この研究は、異なるカメラ視点で3D検出フレームワークを拡張評価することを提唱している。
我々は、CDroneというCARLA Droneデータセットを導入し、ドローンビューをシミュレートし、既存のベンチマークにおけるカメラ視点の多様性を大幅に拡大する。
我々は、GroundMixと呼ばれる効果的なデータ拡張パイプラインを開発し、その識別要素は、トレーニング画像の3D一貫性向上のためのグラウンドの利用である。
論文 参考訳(メタデータ) (2024-08-21T19:25:03Z) - Pixel to Elevation: Learning to Predict Elevation Maps at Long Range using Images for Autonomous Offroad Navigation [10.898724668444125]
本稿では,車載エゴセントリック画像のみをリアルタイムに利用して,長距離の地形標高マップを予測できる学習型アプローチを提案する。
複雑で非構造的な地形における自律型オフロードロボットナビゲーションへの提案手法の適用性を実験的に検証した。
論文 参考訳(メタデータ) (2024-01-30T22:37:24Z) - Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - SPOT: Scalable 3D Pre-training via Occupancy Prediction for Learning Transferable 3D Representations [76.45009891152178]
トレーニング-ファインタニングアプローチは、さまざまな下流データセットとタスクをまたいだトレーニング済みのバックボーンを微調整することで、ラベル付けの負担を軽減することができる。
本稿では, 一般表現学習が, 占領予測のタスクを通じて達成できることを, 初めて示す。
本研究は,LiDAR 点の理解を促進するとともに,LiDAR の事前訓練における今後の進歩の道を開くことを目的とする。
論文 参考訳(メタデータ) (2023-09-19T11:13:01Z) - T2FPV: Constructing High-Fidelity First-Person View Datasets From
Real-World Pedestrian Trajectories [9.44806128120871]
実世界のトップダウントラジェクトリ・データセットから高忠実度1人称ビュー・データセットを構築する方法T2FPVを提案する。
ETH/UCY歩行者データセットを用いて、対話する歩行者の自我中心の視覚データを生成する。
論文 参考訳(メタデータ) (2022-09-22T20:14:43Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - Data Augmentation for Object Detection via Differentiable Neural
Rendering [71.00447761415388]
注釈付きデータが乏しい場合、堅牢なオブジェクト検出器を訓練することは困難です。
この問題に対処する既存のアプローチには、ラベル付きデータからラベル付きデータを補間する半教師付き学習が含まれる。
オブジェクト検出のためのオフラインデータ拡張手法を導入し、新しいビューでトレーニングデータを意味的に補間する。
論文 参考訳(メタデータ) (2021-03-04T06:31:06Z) - A Flow Base Bi-path Network for Cross-scene Video Crowd Understanding in
Aerial View [93.23947591795897]
本稿では,これらの課題に対処し,ドローンから収集した視覚的データから参加者を自動的に理解する。
クロスシーンテストで発生する背景雑音を軽減するために, 二重ストリーム群カウントモデルを提案する。
極暗環境下での集団密度推定問題に対処するために,ゲームグランドセフトオートV(GTAV)によって生成された合成データを導入する。
論文 参考訳(メタデータ) (2020-09-29T01:48:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。