論文の概要: Region-Aware Portrait Retouching with Sparse Interactive Guidance
- arxiv url: http://arxiv.org/abs/2304.04017v1
- Date: Sat, 8 Apr 2023 14:19:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 18:16:26.863302
- Title: Region-Aware Portrait Retouching with Sparse Interactive Guidance
- Title(参考訳): Sparse Interactive Guidance を用いた地域対応画像修正
- Authors: Huimin Zeng, Jie Huang, Jiacheng Li, Zhiwei Xiong
- Abstract要約: 本稿では,自動ブランチと対話型ブランチの2つのブランチを持つ地域対応リタッチフレームワークを提案する。
実験結果から,対話型ブランチはユーザの意図を効果的に把握し,ユーザガイドの少ない未確認シーンを効果的に一般化することがわかった。
- 参考スコア(独自算出の注目度): 40.03760954928032
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Portrait retouching aims to improve the aesthetic quality of input portrait
photos and especially requires human-region priority. \pink{The deep
learning-based methods largely elevate the retouching efficiency and provide
promising retouched results. However, existing portrait retouching methods
focus on automatic retouching, which treats all human-regions equally and
ignores users' preferences for specific individuals,} thus suffering from
limited flexibility in interactive scenarios. In this work, we emphasize the
importance of users' intents and explore the interactive portrait retouching
task. Specifically, we propose a region-aware retouching framework with two
branches: an automatic branch and an interactive branch. \pink{The automatic
branch involves an encoding-decoding process, which searches region candidates
and performs automatic region-aware retouching without user guidance. The
interactive branch encodes sparse user guidance into a priority condition
vector and modulates latent features with a region selection module to further
emphasize the user-specified regions. Experimental results show that our
interactive branch effectively captures users' intents and generalizes well to
unseen scenes with sparse user guidance, while our automatic branch also
outperforms the state-of-the-art retouching methods due to improved
region-awareness.}
- Abstract(参考訳): ポートレートリタッチは、入力されたポートレート写真の美的品質を向上させることを目的としている。
深層学習に基づく手法は、修正効率を大きく上げ、有望な修正結果を提供する。
しかし、既存のポートレートリタッチ手法は、すべての人間領域を平等に扱う自動リタッチに焦点を当てており、特定の個人に対するユーザの好みを無視している。
本稿では,ユーザの意図の重要性を強調し,インタラクティブなポートレートリタッチ作業について検討する。
具体的には,自動ブランチと対話型ブランチの2つのブランチを持つ地域対応リタッチフレームワークを提案する。
自動ブランチは、領域候補を検索し、ユーザガイダンスなしで自動的に領域認識リタッチを実行するエンコーディング・デコーディングプロセスを含む。
インタラクティブブランチは、スパースユーザガイダンスを優先条件ベクトルにエンコードし、領域選択モジュールで潜在特徴を変調し、ユーザ特定領域をさらに強調する。
実験の結果,対話型ブランチはユーザの意図を効果的に捉え,ユーザ誘導のスパースで見当たらないシーンを一般化するが,自動ブランチは領域認識性の向上により最先端のリタッチ手法を上回っていることがわかった。
}
関連論文リスト
- Leveraging Spatial Attention and Edge Context for Optimized Feature Selection in Visual Localization [0.0]
画像の情報領域を選択的にターゲットするアテンションネットワークを導入する。
このネットワークを用いて、特徴選択プロセスを改善し、エッジ検出と組み合わせることで、最高の特徴を識別する。
提案手法を屋外ベンチマークデータセットで検証し,従来の手法と比較して優れた結果を示した。
論文 参考訳(メタデータ) (2024-10-16T05:00:51Z) - Less yet robust: crucial region selection for scene recognition [7.276549978607394]
高次特徴を持つ最も重要かつロバストな領域を同定する適応的選択機構を提案する。
また,本モデルの有効性を評価するために,水中地形分類データセットを構築した。
論文 参考訳(メタデータ) (2024-09-23T06:39:35Z) - R-MAE: Regions Meet Masked Autoencoders [113.73147144125385]
我々は、自己教師付き画像表現学習のための単語の潜在的な視覚的類似として領域を探索する。
生成前トレーニングベースラインであるMasked Autoencoding (MAE) に触発されて, 画素群や領域群から学習するためのマスク付き領域オートエンコーディングを提案する。
論文 参考訳(メタデータ) (2023-06-08T17:56:46Z) - Point-Level Region Contrast for Object Detection Pre-Training [147.47349344401806]
本稿では,物体検出作業のための自己教師付き事前学習手法である点レベル領域コントラストを提案する。
提案手法は,異なる領域から個々の点対を直接抽出することにより,コントラスト学習を行う。
領域ごとの集約表現と比較すると,入力領域の品質の変化に対して,我々のアプローチはより堅牢である。
論文 参考訳(メタデータ) (2022-02-09T18:56:41Z) - Deep auxiliary learning for visual localization using colorization task [25.803016939312137]
シーン固有の高レベルセマンティクスを導入することで,カメラのローカライゼーションのための新しい補助学習戦略を提案する。
本研究では,色付けネットワークから特徴表現をローカライズネットワークに組込み,ポーズ回帰のための識別的特徴を生成する。
本モデルは,屋内および屋外両方のデータセット上での最先端技術に対する局所化精度を著しく向上させる。
論文 参考訳(メタデータ) (2021-07-01T05:25:19Z) - Exploring Explicit and Implicit Visual Relationships for Image
Captioning [11.82805641934772]
本稿では,画像キャプションのための領域レベルの表現を豊かにするために,明示的かつ暗黙的な視覚関係を探索する。
具体的には、オブジェクトペア上にセマンティックグラフを構築し、ゲートグラフ畳み込みネットワーク(Gated GCN)を利用して、近隣住民の情報を選択的に集約する。
暗黙的に、我々は変圧器から領域ベースの双方向エンコーダ表現を介して検出されたオブジェクト間のグローバルな相互作用を描画する。
論文 参考訳(メタデータ) (2021-05-06T01:47:51Z) - Cross-Descriptor Visual Localization and Mapping [81.16435356103133]
視覚のローカライゼーションとマッピングは、Mixed Realityとロボティクスシステムの大部分を支える重要な技術である。
特徴表現の連続的な更新を必要とする局所化とマッピングのための3つの新しいシナリオを提案する。
我々のデータ駆動型アプローチは特徴記述子型に非依存であり、計算要求が低く、記述アルゴリズムの数と線形にスケールする。
論文 参考訳(メタデータ) (2020-12-02T18:19:51Z) - Look here! A parametric learning based approach to redirect visual
attention [49.609412873346386]
画像領域を微妙な画像編集によってより注目度の高いものにするための自動手法を提案する。
我々のモデルは、前景および背景画像領域に適用可能な、異なるグローバルパラメトリック変換セットを予測する。
編集により、任意の画像サイズでインタラクティブなレートでの推論が可能になり、簡単に動画に一般化できる。
論文 参考訳(メタデータ) (2020-08-12T16:08:36Z) - J$\hat{\text{A}}$A-Net: Joint Facial Action Unit Detection and Face
Alignment via Adaptive Attention [57.51255553918323]
本稿では,共同AU検出と顔アライメントのための新しいエンドツーエンドディープラーニングフレームワークを提案する。
我々のフレームワークは、BP4D, DISFA, GFT, BP4D+ベンチマークにおいて、最先端のAU検出方法よりも大幅に優れています。
論文 参考訳(メタデータ) (2020-03-18T12:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。