論文の概要: Learning Pixel-Adaptive Weights for Portrait Photo Retouching
- arxiv url: http://arxiv.org/abs/2112.03536v1
- Date: Tue, 7 Dec 2021 07:23:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 15:23:05.517965
- Title: Learning Pixel-Adaptive Weights for Portrait Photo Retouching
- Title(参考訳): ピクセル適応重み学習によるポートレート写真リタッチ
- Authors: Binglu Wang, Chengzhe Lu, Dawei Yan, Yongqiang Zhao
- Abstract要約: ポートレート写真リタッチ(Portrait photo retouching)は、人間の領域の優先度とグループレベルの一貫性を強調する写真リタッチタスクである。
本稿では,局所的なコンテキストキューをモデル化し,手直し品質を明示的に改善する。
PPR10Kデータセットの実験により,本手法の有効性が検証された。
- 参考スコア(独自算出の注目度): 1.9843222704723809
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Portrait photo retouching is a photo retouching task that emphasizes
human-region priority and group-level consistency. The lookup table-based
method achieves promising retouching performance by learning image-adaptive
weights to combine 3-dimensional lookup tables (3D LUTs) and conducting
pixel-to-pixel color transformation. However, this paradigm ignores the local
context cues and applies the same transformation to portrait pixels and
background pixels when they exhibit the same raw RGB values. In contrast, an
expert usually conducts different operations to adjust the color temperatures
and tones of portrait regions and background regions. This inspires us to model
local context cues to improve the retouching quality explicitly. Firstly, we
consider an image patch and predict pixel-adaptive lookup table weights to
precisely retouch the center pixel. Secondly, as neighboring pixels exhibit
different affinities to the center pixel, we estimate a local attention mask to
modulate the influence of neighboring pixels. Thirdly, the quality of the local
attention mask can be further improved by applying supervision, which is based
on the affinity map calculated by the groundtruth portrait mask. As for
group-level consistency, we propose to directly constrain the variance of mean
color components in the Lab space. Extensive experiments on PPR10K dataset
verify the effectiveness of our method, e.g. on high-resolution photos, the
PSNR metric receives over 0.5 gains while the group-level consistency metric
obtains at least 2.1 decreases.
- Abstract(参考訳): ポートレート写真リタッチは、人間の領域の優先度とグループレベルの一貫性を強調する写真リタッチ作業である。
画像適応重みを学習し、3次元のルックアップテーブル(3D LUT)を組み合わせて画素間色変換を行うことにより、良好なリタッチ性能を実現する。
しかし、このパラダイムは局所的な文脈を無視し、同じRGB値を示すとき、ポートレートピクセルと背景ピクセルに同じ変換を適用する。
対照的に、専門家は通常、ポートレート領域と背景領域の色温度とトーンを調整するために異なる操作を行う。
これにより、ローカルコンテキストのキューをモデル化し、リタッチの品質を明示的に向上させます。
まず、画像パッチを考慮し、中心画素を正確に修正するために画素適応型ルックアップテーブル重みを予測する。
次に、隣接画素が中心画素と異なる親和性を示すため、近傍画素の影響を変調する局所注意マスクを推定する。
第3に、地頭ポートレートマスクが算出した親和性マップに基づいて、監督を施すことにより、ローカルアテンションマスクの品質をさらに向上させることができる。
グループレベルの一貫性については,実験室空間における平均色成分のばらつきを直接制約することを提案する。
ppr10kデータセットに関する広範囲な実験により、例えば高解像度写真では、psnrメトリックは0.5以上のゲインを受け取り、グループレベルの一貫性メトリックは少なくとも2.1の低下が得られる。
関連論文リスト
- Exploring Multi-view Pixel Contrast for General and Robust Image Forgery Localization [4.8454936010479335]
本稿では,画像フォージェリーローカライゼーションのための多視点Pixel-wise Contrastive Algorithm (MPC)を提案する。
具体的には、まず、教師付きコントラスト損失を伴うバックボーンネットワークを事前訓練する。
次に、クロスエントロピー損失を用いてローカライゼーションヘッドを微調整し、ピクセルローカライザを改良する。
論文 参考訳(メタデータ) (2024-06-19T13:51:52Z) - KeyPoint Relative Position Encoding for Face Recognition [15.65725865703615]
Keypoint RPE (KP-RPE) は、画素の重要度が近接によってのみ規定されない原理の拡張である。
コードと事前訓練されたモデルが利用可能である。
論文 参考訳(メタデータ) (2024-03-21T21:56:09Z) - Differentiable Registration of Images and LiDAR Point Clouds with
VoxelPoint-to-Pixel Matching [58.10418136917358]
カメラからの2D画像とLiDARからの3Dポイントクラウドの間のクロスモダリティ登録は、コンピュータビジョンとロボットトレーニングにおいて重要な課題である。
ニューラルネットワークで学習した点パターンと画素パターンのマッチングによる2次元3次元対応の推定
我々は、異なる潜在画素空間を介して3次元特徴を表現するために、構造化されたモダリティマッチングソルバを学習する。
論文 参考訳(メタデータ) (2023-12-07T05:46:10Z) - Pixel-Inconsistency Modeling for Image Manipulation Localization [59.968362815126326]
デジタル画像法医学は、画像認証と操作のローカライゼーションにおいて重要な役割を果たす。
本稿では,画素不整合アーチファクトの解析を通じて,一般化されたロバストな操作ローカライゼーションモデルを提案する。
実験により,本手法は固有の画素不整合偽指紋を抽出することに成功した。
論文 参考訳(メタデータ) (2023-09-30T02:54:51Z) - Quantity-Aware Coarse-to-Fine Correspondence for Image-to-Point Cloud
Registration [4.954184310509112]
Image-to-point cloud registrationは、RGBイメージと参照ポイントクラウドの間の相対カメラのポーズを決定することを目的としている。
個々の点と画素とのマッチングは、モダリティギャップによって本質的に曖昧である。
本稿では,局所点集合と画素パッチ間の量認識対応を捉える枠組みを提案する。
論文 参考訳(メタデータ) (2023-07-14T03:55:54Z) - Improving Pixel-Level Contrastive Learning by Leveraging Exogenous Depth
Information [7.561849435043042]
近年,コントラスト学習(CL)に基づく自己指導型表現学習が注目されている。
本稿では,深度ネットワークを用いたり,利用可能なデータから測定したりすることで得られる深度情報に焦点を当てる。
比較損失におけるこの推定情報を用いることで、結果が改善され、学習された表現がオブジェクトの形状に従うのがよいことを示す。
論文 参考訳(メタデータ) (2022-11-18T11:45:39Z) - Pixel-Perfect Structure-from-Motion with Featuremetric Refinement [96.73365545609191]
複数視点からの低レベル画像情報を直接アライメントすることで、動きからの2つの重要なステップを洗練する。
これにより、様々なキーポイント検出器のカメラポーズとシーン形状の精度が大幅に向上する。
本システムは,大規模な画像コレクションに容易にスケールできるので,クラウドソースによる大規模なローカライゼーションを実現することができる。
論文 参考訳(メタデータ) (2021-08-18T17:58:55Z) - RoI Tanh-polar Transformer Network for Face Parsing in the Wild [50.8865921538953]
顔解析は、画像中のターゲット顔の顔成分のピクセルワイズラベルを予測することを目的としている。
既存のアプローチは通常、前処理中に計算されたバウンディングボックスに関して、入力画像からターゲット顔を取得する。
本稿では,画像全体を顔領域とコンテキストの固定比でTanh極表現に変換するRoI Tanh極変換を提案する。
第3に、Tanh極空間とTanh-Cartesian空間の両方に畳み込み層を含むハイブリッド残差表現学習ブロック、HybridBlockを提案する。
論文 参考訳(メタデータ) (2021-02-04T16:25:26Z) - Geometric Correspondence Fields: Learned Differentiable Rendering for 3D
Pose Refinement in the Wild [96.09941542587865]
野生の任意のカテゴリのオブジェクトに対する微分可能レンダリングに基づく新しい3次元ポーズ精細化手法を提案する。
このようにして、3DモデルとRGB画像のオブジェクトを正確に整列し、3Dポーズ推定を大幅に改善する。
我々は、Pix3Dデータセットの挑戦に対するアプローチを評価し、複数のメトリクスにおける最先端の精錬手法と比較して、最大55%の改善を実現した。
論文 参考訳(メタデータ) (2020-07-17T12:34:38Z) - JGR-P2O: Joint Graph Reasoning based Pixel-to-Offset Prediction Network
for 3D Hand Pose Estimation from a Single Depth Image [28.753759115780515]
最先端の単一深度画像に基づく3次元手ポーズ推定法は、密集した予測に基づいている。
上記の問題に対処するために, 画素単位の予測に基づく新しい手法を提案する。
提案モデルは2次元完全畳み込みネットワークのバックボーンで実装され,約1.4Mのパラメータしか持たない。
論文 参考訳(メタデータ) (2020-07-09T08:57:19Z) - Steering Self-Supervised Feature Learning Beyond Local Pixel Statistics [60.92229707497999]
画像の特定の変換の識別に基づく自己教師型特徴学習の新しい原理を提案する。
実験により,LCI,画像ワープ,回転などの変換を識別する学習が,技術一般化能力の状態を特徴付けることを示した。
論文 参考訳(メタデータ) (2020-04-05T22:09:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。