論文の概要: THE Benchmark: Transferable Representation Learning for Monocular Height
Estimation
- arxiv url: http://arxiv.org/abs/2112.14985v1
- Date: Thu, 30 Dec 2021 09:40:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-04 03:47:58.542490
- Title: THE Benchmark: Transferable Representation Learning for Monocular Height
Estimation
- Title(参考訳): 単眼高推定のための転送可能表現学習
- Authors: Zhitong Xiong, Wei Huang, Jingtao Hu, Yilei Shi, Qi Wang, and Xiao
Xiang Zhu
- Abstract要約: クロスデータセット設定における高さ推定モデルの転送可能性を検討するための新しいベンチマークデータセットを提案する。
このベンチマークデータセットには、新しく提案された大規模合成データセット、新たに収集された実世界のデータセット、および異なる都市の既存の4つのデータセットが含まれている。
実験により,従来のデータ転送設定とクロスデータセット転送設定の両方において提案手法の有効性が示された。
- 参考スコア(独自算出の注目度): 30.1463738626422
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating 3D city models rapidly is crucial for many applications. Monocular
height estimation is one of the most efficient and timely ways to obtain
large-scale geometric information. However, existing works focus primarily on
training and testing models using unbiased datasets, which don't align well
with real-world applications. Therefore, we propose a new benchmark dataset to
study the transferability of height estimation models in a cross-dataset
setting. To this end, we first design and construct a large-scale benchmark
dataset for cross-dataset transfer learning on the height estimation task. This
benchmark dataset includes a newly proposed large-scale synthetic dataset, a
newly collected real-world dataset, and four existing datasets from different
cities. Next, two new experimental protocols, zero-shot and few-shot
cross-dataset transfer, are designed. For few-shot cross-dataset transfer, we
enhance the window-based Transformer with the proposed scale-deformable
convolution module to handle the severe scale-variation problem. To improve the
generalizability of deep models in the zero-shot cross-dataset setting, a
max-normalization-based Transformer network is designed to decouple the
relative height map from the absolute heights. Experimental results have
demonstrated the effectiveness of the proposed methods in both the traditional
and cross-dataset transfer settings. The datasets and codes are publicly
available at https://thebenchmarkh.github.io/.
- Abstract(参考訳): 3D都市モデルを迅速に生成することは、多くのアプリケーションにとって不可欠である。
単分子高さ推定は、大規模な幾何学的情報を得る最も効率的かつタイムリーな方法の1つである。
しかしながら、既存の作業は主に、非バイアスデータセットを使用したトレーニングとテストモデルに重点を置いている。
そこで本研究では,クロスデータセットにおける高さ推定モデルの転送可能性を調べるための新しいベンチマークデータセットを提案する。
そこで我々はまず,ハイト推定タスク上でのクロスデータセット変換学習のための大規模ベンチマークデータセットの設計と構築を行う。
このベンチマークデータセットは、新たに提案された大規模合成データセット、新たに収集された実世界のデータセット、異なる都市の既存の4つのデータセットを含む。
次に、ゼロショットと少数ショットのクロスデータセット転送という、2つの新しい実験プロトコルを設計する。
数回のクロスデータセット転送では,提案するスケール変形可能な畳み込みモジュールにより,ウィンドウベースのトランスフォーマティブが拡張され,深刻なスケール変動問題に対処できる。
ゼロショットクロスデータセット設定における深層モデルの一般化性を向上させるため、相対高さマップを絶対高さから切り離すために、最大正規化に基づくトランスフォーマネットワークが設計されている。
実験の結果,従来のデータ転送とクロスデータセット転送の両方において提案手法の有効性が示された。
データセットとコードはhttps://thebenchmarkh.github.io/で公開されている。
関連論文リスト
- Rethinking Transformers Pre-training for Multi-Spectral Satellite
Imagery [78.43828998065071]
教師なし学習の最近の進歩は、下流タスクにおける有望な結果を達成するための大きな視覚モデルの可能性を示している。
このような事前学習技術は、大量の未学習データが利用可能であることから、リモートセンシング領域でも最近研究されている。
本稿では,マルチモーダルで効果的に活用されるマルチスケール情報の事前学習と活用について述べる。
論文 参考訳(メタデータ) (2024-03-08T16:18:04Z) - LargeST: A Benchmark Dataset for Large-Scale Traffic Forecasting [65.71129509623587]
道路交通予測はスマートシティのイニシアチブにおいて重要な役割を担い、ディープラーニングの力によって大きな進歩を遂げている。
しかし、現在の公開データセットで達成される有望な結果は、現実的なシナリオには適用できないかもしれない。
カリフォルニアで合計8,600のセンサーと5年間の時間カバレッジを含む、LargeSTベンチマークデータセットを紹介します。
論文 参考訳(メタデータ) (2023-06-14T05:48:36Z) - Uni3D: A Unified Baseline for Multi-dataset 3D Object Detection [34.2238222373818]
現在の3Dオブジェクト検出モデルは、単一のデータセット固有のトレーニングとテストのパラダイムに従っている。
本稿では,複数のデータセットから統合された3次元検出器を訓練する作業について検討する。
単純なデータレベルの修正操作と設計された意味レベルの結合・再結合モジュールを利用するUni3Dを提案する。
論文 参考訳(メタデータ) (2023-03-13T05:54:13Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Primitive3D: 3D Object Dataset Synthesis from Randomly Assembled
Primitives [44.03149443379618]
アノテーションで大量の3Dオブジェクトを自動生成するコスト効率のよい手法を提案する。
これらのオブジェクトはプリミティブから派生した部分ラベルで自動アノテーションされる。
生成したデータセットに対する学習のオーバーヘッドが大きいことを考慮し,データセットの蒸留戦略を提案する。
論文 参考訳(メタデータ) (2022-05-25T10:07:07Z) - Geometry-Contrastive Transformer for Generalized 3D Pose Transfer [95.56457218144983]
この研究の直感は、与えられたメッシュ間の幾何学的不整合を強力な自己認識機構で知覚することである。
本研究では,グローバルな幾何学的不整合に対する3次元構造的知覚能力を有する新しい幾何学コントラスト変換器を提案する。
本稿では, クロスデータセット3次元ポーズ伝達タスクのための半合成データセットとともに, 潜時等尺正則化モジュールを提案する。
論文 参考訳(メタデータ) (2021-12-14T13:14:24Z) - Omnidata: A Scalable Pipeline for Making Multi-Task Mid-Level Vision
Datasets from 3D Scans [103.92680099373567]
本稿では,実世界の包括的3Dスキャンからマルチタスク視覚データセットをパラメトリックサンプリングし,レンダリングするパイプラインを提案する。
サンプリングパラメータを変更することで、生成されたデータセットを“ステア”して、特定の情報を強調することが可能になる。
生成されたスタータデータセットでトレーニングされた共通アーキテクチャは、複数の共通ビジョンタスクとベンチマークで最先端のパフォーマンスに達した。
論文 参考訳(メタデータ) (2021-10-11T04:21:46Z) - A Method to Generate High Precision Mesh Model and RGB-D Datasetfor 6D
Pose Estimation Task [10.24919213221012]
本稿では, 高速, 高精度, 堅牢性を考慮したオブジェクト再構成手法を提案する。
私たちのデータはレンダリングデータに近いので、実際のデータと合成データのギャップをさらに縮めることができます。
論文 参考訳(メタデータ) (2020-11-17T16:56:57Z) - Point Transformer for Shape Classification and Retrieval of 3D and ALS
Roof PointClouds [3.3744638598036123]
本稿では,リッチポイントクラウド表現の導出を目的とした,完全注意モデルであるem Point Transformerを提案する。
モデルの形状分類と検索性能は,大規模都市データセット - RoofN3D と標準ベンチマークデータセット ModelNet40 で評価される。
提案手法は、RoofN3Dデータセットの他の最先端モデルよりも優れており、ModelNet40ベンチマークで競合する結果を与え、目に見えない点の破損に対して高い堅牢性を示す。
論文 参考訳(メタデータ) (2020-11-08T08:11:02Z) - 2nd Place Scheme on Action Recognition Track of ECCV 2020 VIPriors
Challenges: An Efficient Optical Flow Stream Guided Framework [57.847010327319964]
我々は、小さなデータセットでモデルをスクラッチからトレーニングできるデータ効率フレームワークを提案する。
具体的には、3D中心差分畳み込み演算を導入することで、新しいC3Dニューラルネットワークベースの2ストリームフレームワークを提案する。
提案手法は,大規模データセット上で事前学習したモデルがなくても,有望な結果が得られることを実証した。
論文 参考訳(メタデータ) (2020-08-10T09:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。