論文の概要: DronePose: Photorealistic UAV-Assistant Dataset Synthesis for 3D Pose
Estimation via a Smooth Silhouette Loss
- arxiv url: http://arxiv.org/abs/2008.08823v2
- Date: Fri, 21 Aug 2020 06:14:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 04:16:34.180305
- Title: DronePose: Photorealistic UAV-Assistant Dataset Synthesis for 3D Pose
Estimation via a Smooth Silhouette Loss
- Title(参考訳): DronePose:スムースシルエットロスによる3D空間推定のための光リアルUAVアシストデータセット合成
- Authors: Georgios Albanis, Nikolaos Zioulis, Anastasios Dimou, Dimitrios
Zarpalas, Petros Daras
- Abstract要約: UAVアシスタントの3Dローカライゼーションは,ユーザとUAV間の空間情報の交換を容易にする重要なタスクである。
我々はデータ合成パイプラインを設計し、エキソセントリックなユーザビューとエゴセントリックなUAVビューの両方を含む現実的なマルチモーダルデータセットを作成する。
次に,フォトリアリスティックな入力と合成された入力を併用して,単発単眼ポーズ推定モデルを訓練する。
- 参考スコア(独自算出の注目度): 27.58747838557417
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this work we consider UAVs as cooperative agents supporting human users in
their operations. In this context, the 3D localisation of the UAV assistant is
an important task that can facilitate the exchange of spatial information
between the user and the UAV. To address this in a data-driven manner, we
design a data synthesis pipeline to create a realistic multimodal dataset that
includes both the exocentric user view, and the egocentric UAV view. We then
exploit the joint availability of photorealistic and synthesized inputs to
train a single-shot monocular pose estimation model. During training we
leverage differentiable rendering to supplement a state-of-the-art direct
regression objective with a novel smooth silhouette loss. Our results
demonstrate its qualitative and quantitative performance gains over traditional
silhouette objectives. Our data and code are available at
https://vcl3d.github.io/DronePose
- Abstract(参考訳): 本研究は,UAVを人的ユーザを支援する協力的エージェントとみなす。
この文脈では、UAVアシスタントの3Dローカライゼーションは、ユーザとUAV間の空間情報の交換を容易にする重要なタスクである。
データ駆動方式でこの問題に対処するため、データ合成パイプラインを設計し、エキソセントリックなユーザビューとエゴセントリックなUAVビューの両方を含む現実的なマルチモーダルデータセットを作成する。
次に,フォトリアリスティック入力と合成入力を併用して単発単眼ポーズ推定モデルを訓練する。
トレーニング中、私たちは差別化可能なレンダリングを利用して、新しいスムーズなシルエット損失で最先端の直接回帰目標を補完します。
その結果,従来のシルエット目標よりも質的かつ定量的な性能向上が示された。
私たちのデータとコードはhttps://vcl3d.github.io/DronePoseで利用可能です。
関連論文リスト
- Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - HandBooster: Boosting 3D Hand-Mesh Reconstruction by Conditional Synthesis and Sampling of Hand-Object Interactions [68.28684509445529]
HandBoosterは、データの多様性を向上し、3Dハンド・ミーシュ・リコンストラクションのパフォーマンスを向上する新しいアプローチである。
まず,多様な手やポーズ,ビュー,背景を持つリアルな画像を生成するために,拡散モデルを誘導する多目的コンテンツ認識条件を構築した。
そこで我々は,我々の類似性を考慮した分布サンプリング戦略に基づく新しい条件作成手法を設計し,トレーニングセットとは異なる,斬新で現実的なインタラクションのポーズを意図的に見つける。
論文 参考訳(メタデータ) (2024-03-27T13:56:08Z) - RadOcc: Learning Cross-Modality Occupancy Knowledge through Rendering
Assisted Distillation [50.35403070279804]
マルチビュー画像を用いた3次元シーンの占有状況とセマンティクスを推定することを目的とした,新たな課題である3D占有予測手法を提案する。
本稿では,RandOccを提案する。Rendering Assisted distillation paradigm for 3D Occupancy prediction。
論文 参考訳(メタデータ) (2023-12-19T03:39:56Z) - UAV-Sim: NeRF-based Synthetic Data Generation for UAV-based Perception [62.71374902455154]
ニューラルレンダリングの最近の進歩を利用して、静的および動的ノベルビューUAVベースの画像レンダリングを改善する。
本研究では,主に実データと合成データのハイブリッドセットに基づいて最先端検出モデルが最適化された場合,性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-10-25T00:20:37Z) - UAVStereo: A Multiple Resolution Dataset for Stereo Matching in UAV
Scenarios [0.6524460254566905]
本稿では,UAVStereoと呼ばれる多解像度UAVシナリオデータセットを構築し,34k以上のステレオ画像ペアが3つの典型的なシーンをカバーしている。
本稿では,UAVシナリオにおける課題に対処する際の限界を明らかにするとともに,従来型および最先端のディープラーニング手法の評価を行う。
論文 参考訳(メタデータ) (2023-02-20T16:45:27Z) - Archangel: A Hybrid UAV-based Human Detection Benchmark with Position
and Pose Metadata [10.426019628829204]
ArchangelはUAVベースのオブジェクト検出データセットで、実際のサブセットと合成サブセットで構成されている。
一連の実験は、メタデータを活用する利点を実証するために、最先端のオブジェクト検出器で慎重に設計されている。
論文 参考訳(メタデータ) (2022-08-31T21:45:16Z) - Simple and Effective Synthesis of Indoor 3D Scenes [78.95697556834536]
1枚以上の画像から3D屋内シーンを没入する問題について検討する。
我々の狙いは、新しい視点から高解像度の画像とビデオを作成することである。
本稿では,不完全点雲の再投影から高解像度のRGB-D画像へ直接マップするイメージ・ツー・イメージのGANを提案する。
論文 参考訳(メタデータ) (2022-04-06T17:54:46Z) - Real-Time Hybrid Mapping of Populated Indoor Scenes using a Low-Cost
Monocular UAV [42.850288938936075]
単一UAVに搭載された単眼カメラから同時マッピングと複数人によるポーズ推定を行う最初のシステムを提案する。
特に,身近な室内シーンのハイブリッドマップをリアルタイムに再構築するために,最先端のモノキュラー深度推定とモノキュラー人間のポーズ推定を緩やかに組み合わせる方法について述べる。
論文 参考訳(メタデータ) (2022-03-04T17:31:26Z) - Vision-Based UAV Self-Positioning in Low-Altitude Urban Environments [20.69412701553767]
無人航空機(UAV)は安定した位置決めのために衛星システムに依存している。
このような状況下では、視覚に基づく技術が代替手段として機能し、UAVの自己配置能力を確実にする。
本稿では,UAV自己配置タスク用に設計された最初の公開データセットであるDenseUAVを提案する。
論文 参考訳(メタデータ) (2022-01-23T07:18:55Z) - RandomRooms: Unsupervised Pre-training from Synthetic Shapes and
Randomized Layouts for 3D Object Detection [138.2892824662943]
有望な解決策は、CADオブジェクトモデルで構成される合成データセットをよりよく利用して、実際のデータセットでの学習を促進することである。
最近の3次元事前学習の研究は、合成物体から他の実世界の応用へ学習した伝達特性が失敗することを示している。
本研究では,この目的を達成するためにRandomRoomsという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:56:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。