論文の概要: AutoPhoto: Aesthetic Photo Capture using Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2109.09923v1
- Date: Tue, 21 Sep 2021 02:52:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 23:46:11.082109
- Title: AutoPhoto: Aesthetic Photo Capture using Reinforcement Learning
- Title(参考訳): AutoPhoto:強化学習を利用した美的写真キャプチャ
- Authors: Hadi AlZayer, Hubert Lin, Kavita Bala
- Abstract要約: 本研究では,シーン内の局所領域をナビゲートして美容写真を自動的にキャプチャする,自律型エージェントのための新しいパイプラインを提案する。
強化学習フレームワークは、学習された美学指標に関してモデルを最適化するために使用される。
我々の知る限りでは、学習した審美的推定器に関して、環境を自動で探索して美的写真をキャプチャするシステムとしては、これが初めてである。
- 参考スコア(独自算出の注目度): 13.521651818921356
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The process of capturing a well-composed photo is difficult and it takes
years of experience to master. We propose a novel pipeline for an autonomous
agent to automatically capture an aesthetic photograph by navigating within a
local region in a scene. Instead of classical optimization over heuristics such
as the rule-of-thirds, we adopt a data-driven aesthetics estimator to assess
photo quality. A reinforcement learning framework is used to optimize the model
with respect to the learned aesthetics metric. We train our model in simulation
with indoor scenes, and we demonstrate that our system can capture aesthetic
photos in both simulation and real world environments on a ground robot. To our
knowledge, this is the first system that can automatically explore an
environment to capture an aesthetic photo with respect to a learned aesthetic
estimator.
- Abstract(参考訳): うまく構成された写真を撮影するプロセスは困難で、マスターするには何年もの経験が必要だ。
本研究では,シーン内の局所領域をナビゲートして美容写真を自動的にキャプチャする,自律型エージェントのための新しいパイプラインを提案する。
3分の1の規則のようなヒューリスティックスよりも古典的な最適化の代わりに、写真の品質を評価するためにデータ駆動の美学推定器を採用する。
強化学習フレームワークは、学習した美学メトリクスに関してモデルを最適化するために使用されます。
我々は,室内シーンを用いたシミュレーションでモデルを訓練し,地上ロボットによるシミュレーションと実環境の両方で美的写真を撮影できることを実証した。
我々の知る限り、これは学習された審美的推定器に関して、環境を自動で探索して美的写真をキャプチャする最初のシステムである。
関連論文リスト
- Learning autonomous driving from aerial imagery [67.06858775696453]
フォトグラムシミュレーターは、生成済みの資産を新しいビューに変換することによって、新しいビューを合成することができる。
我々は、ニューラルネットワーク場(NeRF)を中間表現として使用し、地上車両の視点から新しいビューを合成する。
論文 参考訳(メタデータ) (2024-10-18T05:09:07Z) - RefinedFields: Radiance Fields Refinement for Unconstrained Scenes [7.421845364041002]
我々はRefinedFieldsを提案し、私たちの知識を最大限活用するために、事前学習されたモデルを活用して、フィールド内シーンモデリングを改善する最初の方法を提案する。
我々は、最適化誘導によりK-Planes表現を洗練するために、事前訓練されたネットワークを利用する。
本研究では,本手法が合成データや実際の観光写真コレクションに与える影響を検証し,広範な実験を行った。
論文 参考訳(メタデータ) (2023-12-01T14:59:43Z) - Emu: Enhancing Image Generation Models Using Photogenic Needles in a
Haystack [75.00066365801993]
Webスケールの画像-テキストペアによるテキスト-画像モデルのトレーニングにより、テキストから幅広い視覚概念を生成することができる。
これらの事前訓練されたモデルは、高度に美的な画像を生成することに関して、しばしば課題に直面します。
本稿では,高度に視覚的に魅力的な画像のみを生成するために,事前学習されたモデルを誘導する品質チューニングを提案する。
論文 参考訳(メタデータ) (2023-09-27T17:30:19Z) - Synthetic Sonar Image Simulation with Various Seabed Conditions for
Automatic Target Recognition [1.179296191012968]
本研究では,Unreal Engine を用いたサイドスキャンソナーによる水中物体画像の生成手法を提案する。
本稿では、自動目標認識(ATR)と機械学習アルゴリズムの訓練に使用する代表画像の開発、チューニング、生成のプロセスについて述べる。
論文 参考訳(メタデータ) (2022-10-19T03:08:02Z) - Factorized and Controllable Neural Re-Rendering of Outdoor Scene for
Photo Extrapolation [50.00344639039158]
本稿では, 乱雑な屋外インターネット写真コレクションから新たなビューを生成するために, ニューラルリレンダリングモデルを提案する。
また,テクスチャの詳細を補完する新しいリアリズム拡張法を提案し,そのテクスチャの詳細を狭められた画像から外挿したニューラルレンダリング画像に自動的に伝達する。
論文 参考訳(メタデータ) (2022-07-14T13:28:08Z) - Improving Sample Efficiency of Value Based Models Using Attention and
Vision Transformers [52.30336730712544]
性能を犠牲にすることなくサンプル効率を向上させることを目的とした深層強化学習アーキテクチャを提案する。
状態表現の特徴マップ上の自己注意機構を変換器を用いて学習する視覚的注意モデルを提案する。
我々は,このアーキテクチャがいくつかのAtari環境におけるサンプルの複雑さを向上すると同時に,いくつかのゲームにおいて優れたパフォーマンスを実現することを実証的に実証した。
論文 参考訳(メタデータ) (2022-02-01T19:03:03Z) - User-Guided Personalized Image Aesthetic Assessment based on Deep
Reinforcement Learning [64.07820203919283]
本稿では,新しいユーザガイド型画像美観評価フレームワークを提案する。
深部強化学習(DRL)に基づく審美評価のためのユーザインタラクションを活用して画像のリタッチとランク付けを行う
パーソナライズされた審美分布は、異なるユーザの審美的嗜好とより一致している。
論文 参考訳(メタデータ) (2021-06-14T15:19:48Z) - Learning a State Representation and Navigation in Cluttered and Dynamic
Environments [6.909283975004628]
本稿では,四足ロボットによる局所ナビゲーションを実現するための学習ベースのパイプラインを提案する。
ロボットは、環境を明示的にマッピングすることなく、奥行きカメラのフレームに基づいて、安全な場所へ移動することができる。
本システムでは,ノイズの多い奥行き画像の処理が可能であり,訓練中の動的障害物を回避でき,局所的な空間意識を付与できることを示す。
論文 参考訳(メタデータ) (2021-03-07T13:19:06Z) - Stillleben: Realistic Scene Synthesis for Deep Learning in Robotics [33.30312206728974]
本稿では,シーン認識タスクの学習データを生成するための合成パイプラインについて述べる。
本手法は,物理シミュレーションを用いて,物体メッシュを物理的に現実的で密集したシーンに配置する。
私たちのパイプラインは、ディープニューラルネットワークのトレーニング中にオンラインで実行できます。
論文 参考訳(メタデータ) (2020-05-12T10:11:00Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。