論文の概要: Parallax Motion Effect Generation Through Instance Segmentation And
Depth Estimation
- arxiv url: http://arxiv.org/abs/2010.02680v1
- Date: Tue, 6 Oct 2020 12:56:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 06:21:00.149079
- Title: Parallax Motion Effect Generation Through Instance Segmentation And
Depth Estimation
- Title(参考訳): インスタンスセグメンテーションと深さ推定によるパララックス運動効果の生成
- Authors: Allan Pinto, Manuel A. C\'ordova, Luis G. L. Decker, Jose L.
Flores-Campana, Marcos R. Souza, Andreza A. dos Santos, Jhonatas S.
Concei\c{c}\~ao, Henrique F. Gagliardi, Diogo C. Luvizon, Ricardo da S.
Torres and Helio Pedrini
- Abstract要約: 単一画像からパララックス運動効果を生成するアルゴリズムを提案する。
PyD-Net ネットワークと Mask R-CNN や FBNet ネットワークが組み合わさってパララックス運動効果を生成できることを示す。
- 参考スコア(独自算出の注目度): 1.8350736912359715
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stereo vision is a growing topic in computer vision due to the innumerable
opportunities and applications this technology offers for the development of
modern solutions, such as virtual and augmented reality applications. To
enhance the user's experience in three-dimensional virtual environments, the
motion parallax estimation is a promising technique to achieve this objective.
In this paper, we propose an algorithm for generating parallax motion effects
from a single image, taking advantage of state-of-the-art instance segmentation
and depth estimation approaches. This work also presents a comparison against
such algorithms to investigate the trade-off between efficiency and quality of
the parallax motion effects, taking into consideration a multi-task learning
network capable of estimating instance segmentation and depth estimation at
once. Experimental results and visual quality assessment indicate that the
PyD-Net network (depth estimation) combined with Mask R-CNN or FBNet networks
(instance segmentation) can produce parallax motion effects with good visual
quality.
- Abstract(参考訳): ステレオビジョンは、バーチャルおよび拡張現実アプリケーションのようなモダンなソリューションの開発にこの技術がもたらす無限の機会と応用のために、コンピュータビジョンにおけるトピックが増えている。
3次元仮想環境におけるユーザエクスペリエンスを高めるため,モーションパララックス推定はこの目的を達成する上で有望な手法である。
本稿では,最先端のインスタンスセグメンテーションと深さ推定手法を活用し,単一の画像からパララックス運動効果を生成するアルゴリズムを提案する。
本研究は,パララックス動作効果の効率と品質のトレードオフを検討するために,インスタンス分割と深さ推定を同時に推定できるマルチタスク学習ネットワークを考慮したアルゴリズムとの比較も示す。
実験結果と視覚品質評価により、pyd-netネットワークとマスクr-cnnやfbnetネットワークを組み合わせると、視覚品質の良い視差運動効果が得られることが示された。
関連論文リスト
- An Animation-based Augmentation Approach for Action Recognition from Discontinuous Video [11.293897932762809]
コンピュータビジョンの重要な構成要素である行動認識は、複数のアプリケーションにおいて重要な役割を果たす。
CNNは、不連続なビデオフレームでトレーニングされた場合、パフォーマンスの低下に悩まされる。
この問題を克服するために、一連の高度な技術を用いた4Aパイプラインを紹介します。
論文 参考訳(メタデータ) (2024-04-10T04:59:51Z) - RadOcc: Learning Cross-Modality Occupancy Knowledge through Rendering
Assisted Distillation [50.35403070279804]
マルチビュー画像を用いた3次元シーンの占有状況とセマンティクスを推定することを目的とした,新たな課題である3D占有予測手法を提案する。
本稿では,RandOccを提案する。Rendering Assisted distillation paradigm for 3D Occupancy prediction。
論文 参考訳(メタデータ) (2023-12-19T03:39:56Z) - Foveation in the Era of Deep Learning [6.602118206533142]
本稿では,グラフ畳み込みネットワークを利用してフェーブ化された画像を処理する,エンドツーエンドで微分可能なアクティブ・ビジョン・アーキテクチャを提案する。
我々のモデルは、分類に関連する画像の領域に反復的に出席することを学ぶ。
我々のモデルは最先端のCNNと、同等のパラメータと与えられたピクセルや予算の視覚アーキテクチャより優れています。
論文 参考訳(メタデータ) (2023-12-03T16:48:09Z) - Learning Robust Multi-Scale Representation for Neural Radiance Fields
from Unposed Images [65.41966114373373]
コンピュータビジョンにおけるニューラルイメージベースのレンダリング問題に対する改善された解決策を提案する。
提案手法は,テスト時に新たな視点からシーンのリアルなイメージを合成することができる。
論文 参考訳(メタデータ) (2023-11-08T08:18:23Z) - Neural Point-based Volumetric Avatar: Surface-guided Neural Points for
Efficient and Photorealistic Volumetric Head Avatar [62.87222308616711]
ニューラルポイント表現とニューラルボリュームレンダリングプロセスを採用したフルネーム(名前)を提案する。
具体的には、ニューラルポイントは高分解能UV変位マップを介してターゲット表現の表面を戦略的に拘束する。
設計上は,アバターをアニメーションする際の正確な表現制御を確保しつつ,地形的に変化する領域や細い構造を扱えるように設計されている。
論文 参考訳(メタデータ) (2023-07-11T03:40:10Z) - Dyna-DepthFormer: Multi-frame Transformer for Self-Supervised Depth
Estimation in Dynamic Scenes [19.810725397641406]
シーン深度と3次元運動場を協調的に予測する新しいDyna-Depthformerフレームワークを提案する。
まず,多視点の相関を一連の自己・横断的層を通じて活用し,深度特徴表現の強化を図る。
第2に,動的物体の運動場をセマンティック・プレセプションを使わずに推定するワーピングに基づく運動ネットワークを提案する。
論文 参考訳(メタデータ) (2023-01-14T09:43:23Z) - FuNNscope: Visual microscope for interactively exploring the loss
landscape of fully connected neural networks [77.34726150561087]
ニューラルネットワークの高次元景観特性を探索する方法を示す。
我々は、小さなニューラルネットワークの観測結果をより複雑なシステムに一般化する。
インタラクティブダッシュボードは、いくつかのアプリケーションネットワークを開放する。
論文 参考訳(メタデータ) (2022-04-09T16:41:53Z) - DeepAVO: Efficient Pose Refining with Feature Distilling for Deep Visual
Odometry [8.114855695727003]
本稿では, 深層学習(DL)の観点から, モノクラービジュアルオドメトリー(VO)について検討する。
本稿では、コナールニューラルネットワーク(CNN)を利用して、光フロー入力の異なる四分項に着目し、回転と変換を学習する新しい4分岐ネットワークを提案する。
屋外走行と屋内歩行のシナリオを含む様々なデータセットの実験により、提案されたDeepAVOは最先端のモノラル法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2021-05-20T17:05:31Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - Unadversarial Examples: Designing Objects for Robust Vision [100.4627585672469]
現代の機械学習アルゴリズムの感度を入力摂動に活かし、「ロバストオブジェクト」を設計するフレームワークを開発しています。
標準ベンチマークから(シミュレーション中)ロボット工学まで,さまざまな視覚ベースのタスクに対するフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2020-12-22T18:26:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。