論文の概要: Aesthetics Driven Autonomous Time-Lapse Photography Generation by
Virtual and Real Robots
- arxiv url: http://arxiv.org/abs/2208.10181v1
- Date: Mon, 22 Aug 2022 09:48:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 13:34:13.599713
- Title: Aesthetics Driven Autonomous Time-Lapse Photography Generation by
Virtual and Real Robots
- Title(参考訳): 仮想ロボットと実ロボットによる審美的自動タイムラプス写真生成
- Authors: Xiaobo Gao, Qi Kuang, Xin Jin, Bin Zhou, Boyan Dong, Xunyu Wang
- Abstract要約: 仮想ロボットと実ロボットを用いたタイムラプス撮影システムを提案する。
画像およびビデオの美的品質評価ネットワークを含む異なる審美モデルを用いて最適なパラメータを生成する。
システムはパラメータをエクスポートして実際のロボットに提供し、タイムラプスビデオが現実世界で撮影できるようにします。
- 参考スコア(独自算出の注目度): 14.750895871468883
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time-lapse photography is employed in movies and promotional films because it
can reflect the passage of time in a short time and strengthen the visual
attraction. However, since it takes a long time and requires the stable
shooting, it is a great challenge for the photographer.
In this article, we propose a time-lapse photography system with virtual and
real robots. To help users shoot time-lapse videos efficiently, we first
parameterize the time-lapse photography and propose a parameter optimization
method. For different parameters, different aesthetic models, including image
and video aesthetic quality assessment networks, are used to generate optimal
parameters. Then we propose a time-lapse photography interface to facilitate
users to view and adjust parameters and use virtual robots to conduct virtual
photography in a three-dimensional scene. The system can also export the
parameters and provide them to real robots so that the time-lapse videos can be
filmed in the real world.
In addition, we propose a time-lapse photography aesthetic assessment method
that can automatically evaluate the aesthetic quality of time-lapse video.
The experimental results show that our method can efficiently obtain the
time-lapse videos. We also conduct a user study. The results show that our
system has the similar effect as professional photographers and is more
efficient.
- Abstract(参考訳): タイムラプス撮影は、短時間で時間の経過を反映し、視覚的魅力を強化することができるため、映画やプロモーション映画で使用される。
しかし、長時間を要し、安定した撮影を必要とするため、写真家にとって大きな課題である。
本稿では,仮想ロボットと実ロボットを用いたタイムラプス撮影システムを提案する。
ユーザがタイムラプスビデオを効率的に撮影するために,まず,タイムラプス撮影のパラメータ化を行い,パラメータ最適化手法を提案する。
異なるパラメータに対して、画像とビデオの美的品質評価ネットワークを含む異なる審美モデルを用いて最適なパラメータを生成する。
そして,ユーザがパラメータを閲覧・調整し,仮想ロボットを用いて3次元シーンで仮想撮影を行うためのタイムラプス写真インタフェースを提案する。
システムはパラメーターをエクスポートし、実際のロボットに提供することで、タイムラプスビデオを現実世界で撮影することができる。
また,タイムラプス映像の美的品質を自動的に評価できるタイムラプス写真美的評価手法を提案する。
実験結果から,本手法はタイムラプス映像を効率よく得ることが示された。
ユーザスタディも行っています。
その結果,本システムはプロの写真家と同様の効果を示し,より効率的であることがわかった。
関連論文リスト
- Redundancy-Aware Camera Selection for Indoor Scene Neural Rendering [54.468355408388675]
カメラの空間的多様性と画像の意味的変動の両方を取り入れた類似度行列を構築した。
カメラ選択を最適化するために,多様性に基づくサンプリングアルゴリズムを適用した。
IndoorTrajという新しいデータセットも開発しています。仮想屋内環境で人間が捉えた、長くて複雑なカメラの動きが含まれています。
論文 参考訳(メタデータ) (2024-09-11T08:36:49Z) - Joint Video Multi-Frame Interpolation and Deblurring under Unknown
Exposure Time [101.91824315554682]
本研究では,より現実的で挑戦的なタスク – 複数フレームのジョイントビデオと,未知の露光時間下での劣化 – を野心的に目標とする。
我々はまず,入力されたぼやけたフレームから露出認識表現を構築するために,教師付きコントラスト学習の変種を採用する。
次に、プログレッシブ露光適応型畳み込みと動き改善による露出と動きの表現に基づいて、映像再構成ネットワークを構築した。
論文 参考訳(メタデータ) (2023-03-27T09:43:42Z) - Time Is MattEr: Temporal Self-supervision for Video Transformers [72.42240984211283]
我々は、時間的ダイナミクスをよりよく学習するために、ビデオモデルのための単純で効果的な自己教師型タスクを設計する。
ビデオフレームの時間順序を余分な自己監督として学習し、ランダムにシャッフルされたフレームを低信頼出力に強制する。
様々なビデオ行動認識タスクにおいて,本手法の有効性と最先端のビデオ変換器との互換性を実証する。
論文 参考訳(メタデータ) (2022-07-19T04:44:08Z) - Self-Supervised Camera Self-Calibration from Video [34.35533943247917]
汎用カメラモデルの効率的なファミリーを用いてシーケンスごとのキャリブレーションパラメータを回帰する学習アルゴリズムを提案する。
提案手法は,サブピクセル再投射誤差による自己校正を行い,他の学習手法よりも優れる。
論文 参考訳(メタデータ) (2021-12-06T19:42:05Z) - Motion-from-Blur: 3D Shape and Motion Estimation of Motion-blurred
Objects in Videos [115.71874459429381]
本研究では,映像から3次元の運動,3次元の形状,および高度に動きやすい物体の外観を同時推定する手法を提案する。
提案手法は, 高速移動物体の劣化と3次元再構成において, 従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-29T11:25:14Z) - IR Motion Deblurring [34.584541842225306]
カメラジンバルシステムは、ナビゲーション、目標追跡、セキュリティ、監視など、様々な航空や水上システムにおいて重要である。
所定視野(FOV)を短時間で再検討できるため、ジンバルのより高い操舵速度(回転角)がリアルタイムアプリケーションに好ましい。
露出時間におけるジンバルとシーン間の相対的な動きにより、キャプチャされたビデオフレームは動きのぼけに悩まされる。
動きを損なう深層学習法は速いが、異なる領域に満足できる一般化はしない。
論文 参考訳(メタデータ) (2021-11-23T09:12:48Z) - Learning Fine-Grained Motion Embedding for Landscape Animation [140.57889994591494]
ファイングラインド・モーション・埋め込みを学習し,高品質でリアルな映像を生成するモデルFGLAを提案する。
多様なタイムラプスビデオのトレーニングと評価を行うため、Diverseのシーンを用いた最大の高解像度タイムラプスビデオデータセットを構築した。
提案手法は,LIPISが19%,FVDが5.6%向上した。
論文 参考訳(メタデータ) (2021-09-06T02:47:11Z) - FLEX: Parameter-free Multi-view 3D Human Motion Reconstruction [70.09086274139504]
マルチビューアルゴリズムはカメラパラメータ、特にカメラ間の相対的な位置に強く依存します。
エンドツーエンドのパラメータフリーマルチビューモデルであるFLEXを紹介します。
Human3.6MおよびKTH Multi-view Football IIデータセットの結果を実証する。
論文 参考訳(メタデータ) (2021-05-05T09:08:12Z) - A Kinematic Bottleneck Approach For Pose Regression of Flexible Surgical
Instruments directly from Images [17.32860829016479]
ロボットから提供される運動情報のみをトレーニング時に活用し、自己監督画像に基づく手法を提案する。
時間を要する手動アノテーションの導入を避けるため、問題は自動エンコーダとして定式化される。
本手法の検証は, 柔軟ロボット内視鏡を用いて, 半合成, 幻, および生体内データセットを用いて行った。
論文 参考訳(メタデータ) (2021-02-28T18:41:18Z) - Batteries, camera, action! Learning a semantic control space for
expressive robot cinematography [15.895161373307378]
我々は,意味空間における複雑なカメラ位置決めパラメータの編集を可能にする,データ駆動型フレームワークを開発した。
まず,写真実写シミュレータにおいて,多様な撮影範囲を持つ映像クリップのデータベースを作成する。
クラウドソーシングフレームワークには何百人もの参加者が参加して,各クリップのセマンティック記述子セットのスコアを取得しています。
論文 参考訳(メタデータ) (2020-11-19T21:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。