論文の概要: Photography Perspective Composition: Towards Aesthetic Perspective Recommendation
- arxiv url: http://arxiv.org/abs/2505.20655v1
- Date: Tue, 27 May 2025 03:04:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.371419
- Title: Photography Perspective Composition: Towards Aesthetic Perspective Recommendation
- Title(参考訳): 写真パースペクティブ・コンポジション:美的パースペクティブ・レコメンデーションに向けて
- Authors: Lujian Yao, Siming Zheng, Xinbin Yuan, Zhuoxuan Cai, Pu Wu, Jinwei Chen, Bo Li, Peng-Tao Jiang,
- Abstract要約: 伝統的な写真合成アプローチは2次元の収穫法によって支配されている。
プロの写真家は、しばしば3D再構成の形で視点調整を用いる。
従来の収穫法を超越した写真視点合成(PPC)を提案する。
- 参考スコア(独自算出の注目度): 8.915832522709529
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional photography composition approaches are dominated by 2D cropping-based methods. However, these methods fall short when scenes contain poorly arranged subjects. Professional photographers often employ perspective adjustment as a form of 3D recomposition, modifying the projected 2D relationships between subjects while maintaining their actual spatial positions to achieve better compositional balance. Inspired by this artistic practice, we propose photography perspective composition (PPC), extending beyond traditional cropping-based methods. However, implementing the PPC faces significant challenges: the scarcity of perspective transformation datasets and undefined assessment criteria for perspective quality. To address these challenges, we present three key contributions: (1) An automated framework for building PPC datasets through expert photographs. (2) A video generation approach that demonstrates the transformation process from suboptimal to optimal perspectives. (3) A perspective quality assessment (PQA) model constructed based on human performance. Our approach is concise and requires no additional prompt instructions or camera trajectories, helping and guiding ordinary users to enhance their composition skills.
- Abstract(参考訳): 伝統的な写真合成アプローチは2次元の収穫法によって支配されている。
しかし、これらの手法は、舞台の配置が不十分な場合、不足する。
プロの写真家は、視線調整を3D再構成の形式として採用し、被写体間の投影された2D関係を修正しながら、実際の空間的位置を維持して、より良い構成バランスを達成する。
この芸術的実践に触発されて、従来の収穫法を超えて広がる写真視点合成(PPC)を提案する。
しかし、PPCの実装には、視点変換データセットの不足や、視点品質の未定義評価基準など、大きな課題がある。
これらの課題に対処するため,(1)専門家写真を通してPPCデータセットを構築するための自動フレームワークを提案する。
2)準最適視点から最適視点への変換過程を示すビデオ生成手法。
(3)人間のパフォーマンスに基づく視点品質評価(PQA)モデル
我々のアプローチは簡潔で、追加のプロンプト命令やカメラトラジェクトリを必要としない。
関連論文リスト
- 3D View Optimization for Improving Image Aesthetics [1.529342790344802]
本稿では,3次元操作を応用した先駆的手法を提案する。
提案手法は, 入力画像の補間を行い, そして外挿画像から3Dシーンを再構成し, カメラパラメータと画像アスペクト比を同定し, 審美性を高めて最高の3Dビューが得られるように最適化する。
論文 参考訳(メタデータ) (2024-05-26T05:59:22Z) - Unifying Correspondence, Pose and NeRF for Pose-Free Novel View Synthesis from Stereo Pairs [57.492124844326206]
この研究は、3次元視覚における挑戦的で先駆的な課題であるステレオペアからのポーズレスノベルビュー合成の課題に踏み込んだ。
我々の革新的なフレームワークは、これまでとは違って、シームレスに2D対応マッチング、カメラポーズ推定、NeRFレンダリングを統合し、これらのタスクの相乗的強化を促進します。
論文 参考訳(メタデータ) (2023-12-12T13:22:44Z) - State of the Art in Dense Monocular Non-Rigid 3D Reconstruction [100.9586977875698]
モノクル2D画像から変形可能なシーン(または非剛体)の3D再構成は、コンピュータビジョンとグラフィックスの長年、活発に研究されてきた領域である。
本研究は,モノクラー映像やモノクラービューの集合から,様々な変形可能な物体や複合シーンを高密度に非剛性で再現するための最先端の手法に焦点を当てる。
論文 参考訳(メタデータ) (2022-10-27T17:59:53Z) - Practical Wide-Angle Portraits Correction with Deep Structured Models [17.62752136436382]
本稿では,写真から視線歪みを取り除くための深層学習手法について紹介する。
入力として広角ポートレートが与えられると、LineNet、ShapeNet、トランジションモジュールからなるカスケードネットワークを構築します。
定量的評価には,ラインの整合性と面の整合性という2つの新しい指標を導入する。
論文 参考訳(メタデータ) (2021-04-26T10:47:35Z) - NPRportrait 1.0: A Three-Level Benchmark for Non-Photorealistic
Rendering of Portraits [67.58044348082944]
本稿では,スタイリングされたポートレート画像の評価のための,新しい3レベルベンチマークデータセットを提案する。
厳密な基準が構築に使われ、その一貫性はユーザスタディによって検証された。
ポートレート・スタイル化アルゴリズムを評価するための新しい手法が開発されている。
論文 参考訳(メタデータ) (2020-09-01T18:04:19Z) - Perspective Plane Program Induction from a Single Image [85.28956922100305]
本研究では,自然画像の全体像を推定する逆グラフ問題について検討する。
我々は、この問題を、入力画像の最もよく記述されたカメラポーズとシーン構造を共同で発見するものとして定式化する。
提案するフレームワークであるP3Iは,探索に基づくアルゴリズムと勾配に基づくアルゴリズムを組み合わせて効率よく問題を解く。
論文 参考訳(メタデータ) (2020-06-25T21:18:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。