論文の概要: Data Augmentation for Object Detection via Differentiable Neural
Rendering
- arxiv url: http://arxiv.org/abs/2103.02852v1
- Date: Thu, 4 Mar 2021 06:31:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-05 14:58:20.048799
- Title: Data Augmentation for Object Detection via Differentiable Neural
Rendering
- Title(参考訳): 微分可能なニューラルレンダリングによる物体検出のためのデータ拡張
- Authors: Guanghan Ning, Guang Chen, Chaowei Tan, Si Luo, Liefeng Bo, Heng Huang
- Abstract要約: 注釈付きデータが乏しい場合、堅牢なオブジェクト検出器を訓練することは困難です。
この問題に対処する既存のアプローチには、ラベル付きデータからラベル付きデータを補間する半教師付き学習が含まれる。
オブジェクト検出のためのオフラインデータ拡張手法を導入し、新しいビューでトレーニングデータを意味的に補間する。
- 参考スコア(独自算出の注目度): 71.00447761415388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is challenging to train a robust object detector when annotated data is
scarce. Existing approaches to tackle this problem include semi-supervised
learning that interpolates labeled data from unlabeled data, self-supervised
learning that exploit signals within unlabeled data via pretext tasks. Without
changing the supervised learning paradigm, we introduce an offline data
augmentation method for object detection, which semantically interpolates the
training data with novel views. Specifically, our proposed system generates
controllable views of training images based on differentiable neural rendering,
together with corresponding bounding box annotations which involve no human
intervention. Firstly, we extract and project pixel-aligned image features into
point clouds while estimating depth maps. We then re-project them with a target
camera pose and render a novel-view 2d image. Objects in the form of keypoints
are marked in point clouds to recover annotations in new views. It is fully
compatible with online data augmentation methods, such as affine transform,
image mixup, etc. Extensive experiments show that our method, as a cost-free
tool to enrich images and labels, can significantly boost the performance of
object detection systems with scarce training data. Code is available at
\url{https://github.com/Guanghan/DANR}.
- Abstract(参考訳): 注釈付きデータが乏しい場合、堅牢なオブジェクト検出器を訓練することは困難です。
この問題に対処する既存のアプローチには、ラベルなしデータからラベル付きデータを補間する半教師付き学習、プリテキストタスクを介してラベルなしデータ内の信号を利用する自己教師付き学習などがある。
教師付き学習パラダイムを変えることなく,学習データを新しいビューで意味的に補間する,オブジェクト検出のためのオフラインデータ拡張手法を導入する。
具体的には,人間の介入を伴わない境界ボックスアノテーションとともに,識別可能なニューラルレンダリングに基づくトレーニング画像の制御可能なビューを生成する。
まず,深度マップを推定しながら,画素整列画像の特徴を点雲に抽出・投影する。
次に、ターゲットカメラのポーズでそれらを再投影し、新しいビュー2d画像を描画する。
キーポイント形式のオブジェクトはポイントクラウドにマークされ、新しいビューでアノテーションを復元します。
アフィン変換やイメージミックスアップなどのオンラインデータ拡張手法と完全に互換性がある。
広範な実験により,画像やラベルを強調するコストのないツールとして,訓練データが少ない物体検出システムの性能を著しく向上させることができることが示された。
コードは \url{https://github.com/Guanghan/DANR} で入手できる。
関連論文リスト
- CrossDehaze: Scaling Up Image Dehazing with Cross-Data Vision Alignment and Augmentation [47.425906124301775]
画像デハジングの課題に対処するために,先行と深層学習に基づく手法が提案されている。
本稿では,既存のデハージング手法を改善するために,内部および外部データ拡張の新しい手法を提案する。
提案手法は, 実際のヘイズフリー画像に最も近いデハズド画像のデハズ化やデハズド画像の生成において, 他の先進的手法よりも著しく優れている。
論文 参考訳(メタデータ) (2024-07-20T10:00:20Z) - Free-ATM: Exploring Unsupervised Learning on Diffusion-Generated Images
with Free Attention Masks [64.67735676127208]
テキストと画像の拡散モデルは、画像認識の恩恵を受ける大きな可能性を示している。
有望ではあるが、拡散生成画像の教師なし学習に特化した調査は不十分である。
上記フリーアテンションマスクをフル活用することで、カスタマイズされたソリューションを導入する。
論文 参考訳(メタデータ) (2023-08-13T10:07:46Z) - Robust Object Detection in Remote Sensing Imagery with Noisy and Sparse
Geo-Annotations (Full Version) [4.493174773769076]
本稿では,非常にノイズの多い,不完全なアノテーションを用いたオブジェクト検出器のトレーニング手法を提案する。
本手法は,教師による学習フレームワークと,不正確で欠落したアノテーションを考慮した修正モジュールに基づく。
我々は,雑音の多い実世界のリモートセンシングデータセット上で,標準検出器を37.1%$AP_50$で改善できることを実証した。
論文 参考訳(メタデータ) (2022-10-24T07:25:31Z) - Learning to Detect Every Thing in an Open World [139.78830329914135]
我々は、Learning to Detect Every Thing (LDET)と呼ぶ、シンプルながら驚くほど強力なデータ拡張とトレーニングスキームを提案する。
可視だがラベル付けされていない背景オブジェクトの隠蔽を避けるため、元の画像の小さな領域から採取した背景画像上に注釈付きオブジェクトを貼り付ける。
LDETは、オープンワールドのインスタンスセグメンテーションタスクにおいて、多くのデータセットに大きな改善をもたらす。
論文 参考訳(メタデータ) (2021-12-03T03:56:06Z) - AugNet: End-to-End Unsupervised Visual Representation Learning with
Image Augmentation [3.6790362352712873]
我々は、未ラベル画像の集合から画像特徴を学習するための新しいディープラーニングトレーニングパラダイムであるAugNetを提案する。
実験により,低次元空間における画像の表現が可能であることを実証した。
多くのディープラーニングベースの画像検索アルゴリズムとは異なり、我々のアプローチは外部アノテーション付きデータセットへのアクセスを必要としない。
論文 参考訳(メタデータ) (2021-06-11T09:02:30Z) - Recognizing Actions in Videos from Unseen Viewpoints [80.6338404141284]
本研究では,現在の畳み込みニューラルネットワークモデルでは,トレーニングデータに存在しないカメラ視点からの動作を認識できないことを示す。
視認不能な認識のための新しいデータセットを導入し、視点不変表現を学習するアプローチ能力を示す。
論文 参考訳(メタデータ) (2021-03-30T17:17:54Z) - Cross-Model Image Annotation Platform with Active Learning [0.0]
オブジェクトアノテーションと認識のためのEnd-to-Endパイプラインツールを提供する。
我々は,画像アノテーション,アクティブラーニング,モデルトレーニング,評価をシームレスに組み込んだモジュール型画像アノテーションプラットフォームを開発した。
最高精度は74%。
論文 参考訳(メタデータ) (2020-08-06T01:42:25Z) - Single Image Cloud Detection via Multi-Image Fusion [23.641624507709274]
アルゴリズム開発における主な課題は、注釈付きトレーニングデータを集めるコストである。
マルチイメージフュージョンの最近の進歩が、シングルイメージクラウド検出のブートストラップにどのように活用できるかを実証する。
我々は、ランドカバー用のピクセルごとのセマンティックラベリングとともに、Sentinel-2画像の大規模なデータセットを収集した。
論文 参考訳(メタデータ) (2020-07-29T22:52:28Z) - Improving Object Detection with Selective Self-supervised Self-training [62.792445237541145]
本研究では,Web画像を利用した人為的対象検出データセットの強化について検討する。
画像と画像の検索によりWebイメージを検索し、他の検索手法に比べて、キュレートされたデータからのドメインシフトが少なくなる。
画像分類のためのラベルのないデータを探索する2つの並列処理をモチベーションとした新しい学習手法を提案する。
論文 参考訳(メタデータ) (2020-07-17T18:05:01Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。