論文の概要: Visual Comfort Aware-Reinforcement Learning for Depth Adjustment of
Stereoscopic 3D Images
- arxiv url: http://arxiv.org/abs/2104.06782v1
- Date: Wed, 14 Apr 2021 11:15:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 13:07:55.557404
- Title: Visual Comfort Aware-Reinforcement Learning for Depth Adjustment of
Stereoscopic 3D Images
- Title(参考訳): 立体3次元画像の奥行き調整のための視覚快適感・強化学習
- Authors: Hak Gu Kim, Minho Park, Sangmin Lee, Seongyeop Kim, Yong Man Ro
- Abstract要約: VCA-RL(Visual Comfort Aware Reinforcement Learning)と呼ばれる深度調整のための新しい深度強化学習手法を提案する。
我々は,アクションをカメラ移動操作として定義するマルコフ決定プロセスとして深度調整プロセスを定式化する。
当社のエージェントは、客観的な視覚的快適度評価指標の指導に基づいて訓練され、カメラの動きの最適なシーケンスを学びます。
- 参考スコア(独自算出の注目度): 42.593422688204576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth adjustment aims to enhance the visual experience of stereoscopic 3D
(S3D) images, which accompanied with improving visual comfort and depth
perception. For a human expert, the depth adjustment procedure is a sequence of
iterative decision making. The human expert iteratively adjusts the depth until
he is satisfied with the both levels of visual comfort and the perceived depth.
In this work, we present a novel deep reinforcement learning (DRL)-based
approach for depth adjustment named VCA-RL (Visual Comfort Aware Reinforcement
Learning) to explicitly model human sequential decision making in depth editing
operations. We formulate the depth adjustment process as a Markov decision
process where actions are defined as camera movement operations to control the
distance between the left and right cameras. Our agent is trained based on the
guidance of an objective visual comfort assessment metric to learn the optimal
sequence of camera movement actions in terms of perceptual aspects in
stereoscopic viewing. With extensive experiments and user studies, we show the
effectiveness of our VCA-RL model on three different S3D databases.
- Abstract(参考訳): 奥行き調整は立体3D画像の視覚的体験を高めることを目的としており、視覚的快適さと深度知覚を改善する。
人間の専門家にとって、深さ調整手順は反復的な意思決定のシーケンスである。
人間の専門家は、視覚的快適度と知覚深度の両方に満足するまで、その深さを反復的に調整する。
本研究では, 深度編集作業における人間の逐次決定を明示的にモデル化する, VCA-RL (Visual Comfort Aware Reinforcement Learning) という, 深度調整のための新しい深度強化学習手法を提案する。
奥行き調整プロセスをマルコフ決定プロセスとして定式化し、左右のカメラ間の距離を制御するためにアクションをカメラ移動操作として定義する。
本エージェントは,立体視の知覚的側面からカメラ動作の最適なシーケンスを学習するために,客観的視覚快適度評価指標の指導に基づいて訓練を行う。
3つの異なるS3Dデータベース上でのVCA-RLモデルの有効性を示す。
関連論文リスト
- DO3D: Self-supervised Learning of Decomposed Object-aware 3D Motion and
Depth from Monocular Videos [76.01906393673897]
本研究では,モノクラービデオから3次元運動と深度を協調的に学習する自己教師手法を提案する。
本システムでは,深度を推定する深度推定モジュールと,エゴモーションと3次元物体の動きを推定する新しい分解対象3次元運動推定モジュールを備える。
我々のモデルは評価されたすべての設定において優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-03-09T12:22:46Z) - Toward Accurate Camera-based 3D Object Detection via Cascade Depth
Estimation and Calibration [20.82054596017465]
最近の3次元物体検出は、画像から3次元特徴空間への変換の精度によって制限されている。
本稿では,カメラを用いた3次元物体検出の基本的な課題である,正確な特徴持ち上げと物体位置決めのための深度情報を効果的に学習する方法を提案する。
論文 参考訳(メタデータ) (2024-02-07T14:21:26Z) - DepthSSC: Depth-Spatial Alignment and Dynamic Voxel Resolution for
Monocular 3D Semantic Scene Completion [0.4662017507844857]
DepthSSCはモノクロカメラのみをベースとしたセマンティックシーン補完手法である。
従来の手法で観察された空間的不整合や歪みの問題を緩和する。
複雑な3D構造の詳細をキャプチャーし、最先端のパフォーマンスを実現する効果を実証する。
論文 参考訳(メタデータ) (2023-11-28T01:47:51Z) - Enhanced Stable View Synthesis [86.69338893753886]
本稿では,自由に動くカメラから撮影した画像から,新しいビュー合成を強化するアプローチを提案する。
導入されたアプローチは、正確な幾何学的足場とカメラのポーズの復元が困難な屋外シーンに焦点を当てている。
論文 参考訳(メタデータ) (2023-03-30T01:53:14Z) - 3D Hierarchical Refinement and Augmentation for Unsupervised Learning of
Depth and Pose from Monocular Video [16.613015664195224]
明示的な3次元幾何を用いた3次元階層化と拡張による新しい教師なしトレーニングフレームワークが提案されている。
このフレームワークでは、深さとポーズの推定を階層的に相互に結合し、推定されたポーズ層を層単位で洗練する。
我々の視覚計測は、最近の教師なし単眼学習法よりも優れており、幾何学的手法と競合する性能を実現している。
論文 参考訳(メタデータ) (2021-12-06T13:46:48Z) - Panoramic Depth Estimation via Supervised and Unsupervised Learning in
Indoor Scenes [8.48364407942494]
パノラマ画像を導入して視野を大きくする。
パノラマ画像の特徴に適応したニューラルネットワークのトレーニングプロセスを改善する。
本研究は, 総合的な実験により, 屋内シーンの認識を目的とした提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-08-18T09:58:44Z) - Unsupervised Learning of Visual 3D Keypoints for Control [104.92063943162896]
高次元画像からの感覚運動制御ポリシーの学習は、基礎となる視覚表現の品質に大きく依存する。
本稿では,画像から3次元幾何学的構造を直接教師なしで学習するフレームワークを提案する。
これらの発見された3Dキーポイントは、時間と3D空間の両方で一貫した方法で、ロボットの関節と物体の動きを有意義にキャプチャする傾向がある。
論文 参考訳(メタデータ) (2021-06-14T17:59:59Z) - Self-Supervised Human Depth Estimation from Monocular Videos [99.39414134919117]
人間の深度を推定する従来の方法は、しばしば地上の真実の深度データを用いた教師あり訓練を必要とする。
本稿では,YouTubeビデオの奥行きを知ることなく,自己指導型手法を提案する。
実験により,本手法はより一般化され,野生のデータに対してより優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-05-07T09:45:11Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。