論文の概要: Deep Homography Estimation for Dynamic Scenes
- arxiv url: http://arxiv.org/abs/2004.02132v1
- Date: Sun, 5 Apr 2020 09:07:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 13:03:13.179598
- Title: Deep Homography Estimation for Dynamic Scenes
- Title(参考訳): 動的シーンの深部ホログラフィー推定
- Authors: Hoang Le, Feng Liu, Shu Zhang, and Aseem Agarwala
- Abstract要約: 本稿では,動的シーンを扱うディープニューラルネットワークの設計と訓練方法について検討・検討する。
より原理的な方法で動的シーンのホモグラフィーを推定するには、動的内容を特定する必要がある。
提案手法は, 動的シーン, ぼやけたアーティファクト, テクスチャの欠如といった難題に対して, ホログラフィーを頑健に推定できることを示す。
- 参考スコア(独自算出の注目度): 11.89081799474825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Homography estimation is an important step in many computer vision problems.
Recently, deep neural network methods have shown to be favorable for this
problem when compared to traditional methods. However, these new methods do not
consider dynamic content in input images. They train neural networks with only
image pairs that can be perfectly aligned using homographies. This paper
investigates and discusses how to design and train a deep neural network that
handles dynamic scenes. We first collect a large video dataset with dynamic
content. We then develop a multi-scale neural network and show that when
properly trained using our new dataset, this neural network can already handle
dynamic scenes to some extent. To estimate a homography of a dynamic scene in a
more principled way, we need to identify the dynamic content. Since dynamic
content detection and homography estimation are two tightly coupled tasks, we
follow the multi-task learning principles and augment our multi-scale network
such that it jointly estimates the dynamics masks and homographies. Our
experiments show that our method can robustly estimate homography for
challenging scenarios with dynamic scenes, blur artifacts, or lack of textures.
- Abstract(参考訳): ホログラフィー推定は多くのコンピュータビジョン問題において重要なステップである。
近年,ディープニューラルネットワーク法は従来の手法と比較してこの問題に好適であることが示されている。
しかし、これらの新しい手法は入力画像の動的コンテンツを考慮していない。
彼らは、ホモグラフを使って完全に整列できるイメージペアのみでニューラルネットワークを訓練する。
本稿では,動的シーンを扱う深層ニューラルネットワークの設計と訓練について考察する。
まず,動的コンテンツを用いた大規模ビデオデータセットを収集する。
そして、複数のスケールのニューラルネットワークを開発し、新しいデータセットを使って適切にトレーニングすると、このニューラルネットワークが既にある程度ダイナミックなシーンを処理できることを示します。
より原理的な方法で動的シーンのホモグラフィーを推定するには、動的内容を特定する必要がある。
動的コンテンツ検出とホモグラフィ推定は2つの密結合タスクであるので,マルチタスク学習の原則に従い,ダイナミクスマスクとホモグラフィを共同で推定できるように,マルチスケールネットワークを強化した。
提案手法は, 動的シーン, ぼやけたアーティファクト, テクスチャの欠如といった難題に対して, ホログラフィーを頑健に推定できることを示す。
関連論文リスト
- Image segmentation with traveling waves in an exactly solvable recurrent
neural network [71.74150501418039]
繰り返しニューラルネットワークは、シーンの構造特性に応じて、画像をグループに効果的に分割できることを示す。
本稿では,このネットワークにおけるオブジェクトセグメンテーションのメカニズムを正確に記述する。
次に、グレースケール画像中の単純な幾何学的対象から自然画像まで、入力をまたいで一般化するオブジェクトセグメンテーションの簡単なアルゴリズムを実証する。
論文 参考訳(メタデータ) (2023-11-28T16:46:44Z) - Robot Localization and Mapping Final Report -- Sequential Adversarial
Learning for Self-Supervised Deep Visual Odometry [2.512491726995032]
VO(Visual odometry)とSLAM(SLAM)は、何十年にもわたって動きから局所的な構造を通して多視点幾何を用いてきた。
高レベルの特徴を抽出するディープニューラルネットワークは、コンピュータビジョンにおいてユビキタスである。
この研究の目標は、過去のアプローチのこれらの制限に対処し、より良い深さを提供し、見積もりを示す方法を開発することである。
論文 参考訳(メタデータ) (2023-09-08T06:24:17Z) - Neural Maximum A Posteriori Estimation on Unpaired Data for Motion
Deblurring [87.97330195531029]
本稿では、ニューラルネットワークをトレーニングし、失明したデータから視覚情報や鋭いコンテンツを復元するためのニューラルネットワークの最大Aポストエリオリ(NeurMAP)推定フレームワークを提案する。
提案されたNeurMAPは、既存のデブロアリングニューラルネットワークに対するアプローチであり、未使用データセット上のイメージデブロアリングネットワークのトレーニングを可能にする最初のフレームワークである。
論文 参考訳(メタデータ) (2022-04-26T08:09:47Z) - Pre-Training on Dynamic Graph Neural Networks [26.139844652756334]
本稿では,動的グラフニューラルネットワーク(PT-DGNN)の事前学習手法を提案する。
動的帰結グラフ生成タスクを使用して、グラフの構造、セマンティクス、進化の特徴を同時に学習する。
論文 参考訳(メタデータ) (2021-02-24T16:06:32Z) - Learning Contact Dynamics using Physically Structured Neural Networks [81.73947303886753]
ディープニューラルネットワークと微分方程式の接続を用いて、オブジェクト間の接触ダイナミクスを表現するディープネットワークアーキテクチャのファミリを設計する。
これらのネットワークは,ノイズ観測から不連続な接触事象をデータ効率良く学習できることを示す。
以上の結果から,タッチフィードバックの理想化形態は,この学習課題を扱いやすくするための重要な要素であることが示唆された。
論文 参考訳(メタデータ) (2021-02-22T17:33:51Z) - D-NeRF: Neural Radiance Fields for Dynamic Scenes [72.75686949608624]
そこで我々は,D-NeRF(D-NeRF)を動的領域に拡張する手法を提案する。
D-NeRFは、周囲を動き回るカメラから、剛体で非剛体な動きの下で物体のイメージを再構成する。
我々は,剛体・調音・非剛体動作下での物体のシーンに対するアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2020-11-27T19:06:50Z) - Neural Scene Graphs for Dynamic Scenes [57.65413768984925]
動的シーンをシーングラフに分解する最初のニューラルレンダリング手法を提案する。
我々は暗黙的に符号化されたシーンと、単一の暗黙の関数でオブジェクトを記述するために共同で学習された潜在表現を組み合わせる。
論文 参考訳(メタデータ) (2020-11-20T12:37:10Z) - Understanding the Role of Individual Units in a Deep Neural Network [85.23117441162772]
本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
論文 参考訳(メタデータ) (2020-09-10T17:59:10Z) - Foundations and modelling of dynamic networks using Dynamic Graph Neural
Networks: A survey [11.18312489268624]
我々は、一貫した詳細な用語と表記を伴う動的ネットワークの基礎を確立する。
提案する用語を用いて,動的グラフニューラルネットワークモデルに関する包括的調査を行う。
論文 参考訳(メタデータ) (2020-05-13T23:56:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。