論文の概要: INRetouch: Context Aware Implicit Neural Representation for Photography Retouching
- arxiv url: http://arxiv.org/abs/2412.03848v2
- Date: Wed, 11 Dec 2024 16:26:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:01:27.965686
- Title: INRetouch: Context Aware Implicit Neural Representation for Photography Retouching
- Title(参考訳): INRetouch: 写真リタッチのための暗黙のニューラル表現を意識する
- Authors: Omar Elezabi, Marcos V. Conde, Zongwei Wu, Radu Timofte,
- Abstract要約: 本稿では、プロの編集から前後のイメージペアを通して学習する新しいリタッチ転送手法を提案する。
我々は,画像の内容とコンテキストに基づいて,適応的に編集を適用することを学習する文脈認識型インプシットニューラル表現を開発した。
提案手法は,写真再構成における既存の手法を超越するだけでなく,画像再構成タスクの性能向上にも寄与する。
- 参考スコア(独自算出の注目度): 54.17599183365242
- License:
- Abstract: Professional photo editing remains challenging, requiring extensive knowledge of imaging pipelines and significant expertise. With the ubiquity of smartphone photography, there is an increasing demand for accessible yet sophisticated image editing solutions. While recent deep learning approaches, particularly style transfer methods, have attempted to automate this process, they often struggle with output fidelity, editing control, and complex retouching capabilities. We propose a novel retouch transfer approach that learns from professional edits through before-after image pairs, enabling precise replication of complex editing operations. To facilitate this research direction, we introduce a comprehensive Photo Retouching Dataset comprising 100,000 high-quality images edited using over 170 professional Adobe Lightroom presets. We develop a context-aware Implicit Neural Representation that learns to apply edits adaptively based on image content and context, requiring no pretraining and capable of learning from a single example. Our method extracts implicit transformations from reference edits and adaptively applies them to new images. Through extensive evaluation, we demonstrate that our approach not only surpasses existing methods in photo retouching but also enhances performance in related image reconstruction tasks like Gamut Mapping and Raw Reconstruction. By bridging the gap between professional editing capabilities and automated solutions, our work presents a significant step toward making sophisticated photo editing more accessible while maintaining high-fidelity results. Check the Project Page at https://omaralezaby.github.io/inretouch for more Results and information about Code and Dataset availability.
- Abstract(参考訳): プロフェッショナルな写真編集は依然として困難であり、画像パイプラインと重要な専門知識の広範な知識を必要としている。
スマートフォン写真の普及に伴い、アクセス可能で洗練された画像編集ソリューションへの需要が高まっている。
最近のディープラーニングアプローチ、特にスタイル転送手法は、このプロセスを自動化しようとしてきたが、出力の忠実さ、編集制御、複雑なリタッチ機能に悩まされることが多い。
本稿では,プロの編集から事前画像ペアを学習し,複雑な編集操作の正確な複製を可能にする新しいリタッチ転送手法を提案する。
この研究の方向性を促進するために、170以上のプロのAdobe Lightroomプリセットを用いて編集された10万以上の高品質な画像からなる総合的なPhoto Retouching Datasetを紹介した。
本研究では,画像の内容やコンテキストに基づいて編集を適応的に適用し,事前学習を必要とせず,ひとつの例から学習できるコンテキスト認識型インプシットニューラル表現を開発した。
提案手法は,参照編集から暗黙的な変換を抽出し,それらを新しい画像に適用する。
広汎な評価により,本手法は写真再構成における既存の手法を超越するだけでなく,ガミュートマッピングやRAW再構成といった画像再構成タスクの性能向上も図っている。
プロの編集能力と自動化ソリューションのギャップを埋めることで、高忠実度を保ちながら高度な写真編集をよりアクセスしやすくするための重要なステップを提示する。
プロジェクトページ(https://omaralezaby.github.io/inretouch)をご覧ください。
関連論文リスト
- Streamlining Image Editing with Layered Diffusion Brushes [8.738398948669609]
我々のシステムは、ハイエンドの消費者向けGPUを使用して、140ミリ秒以内の512x512画像に1回の編集を行う。
提案手法は,オブジェクト属性の調整,エラー訂正,逐次的なプロンプトベースのオブジェクト配置と操作など,さまざまなタスクに対して有効性を示す。
論文 参考訳(メタデータ) (2024-05-01T04:30:03Z) - InstructBrush: Learning Attention-based Instruction Optimization for Image Editing [54.07526261513434]
InstructBrushは命令ベースの画像編集方法の逆変換手法である。
画像ペアから編集命令として編集効果を抽出し、さらに画像編集に適用する。
提案手法は,編集性能に優れ,目的の編集効果とセマンティックに一致している。
論文 参考訳(メタデータ) (2024-03-27T15:03:38Z) - InstructGIE: Towards Generalizable Image Editing [34.83188723673297]
一般化ロバスト性を高めた新しい画像編集フレームワークを提案する。
このフレームワークには、VMamba Blockを利用して、画像編集タスクに特別に最適化されたモジュールが組み込まれている。
また、生成された画像の劣化した詳細に対処し、修正するために特別に設計された、選択的な領域マッチング技術も披露する。
論文 参考訳(メタデータ) (2024-03-08T03:43:04Z) - Optimisation-Based Multi-Modal Semantic Image Editing [58.496064583110694]
本稿では,複数の編集命令型に対応するために,推論時編集の最適化を提案する。
各損失関数の影響を調整することで、ユーザの好みに合わせてフレキシブルな編集ソリューションを構築することができる。
本手法は,テキスト,ポーズ,スクリブルといった編集条件を用いて評価し,複雑な編集を行う能力を強調した。
論文 参考訳(メタデータ) (2023-11-28T15:31:11Z) - Emu Edit: Precise Image Editing via Recognition and Generation Tasks [62.95717180730946]
本稿では,マルチタスク画像編集モデルであるEmu Editについて述べる。
我々は、地域ベースの編集、自由形式の編集、コンピュータビジョンタスクなど、前例のない範囲でマルチタスクに訓練する。
Emu Editは画像インペイント、超解像、編集タスクの構成といった新しいタスクに、ラベル付き例で一般化できることを示す。
論文 参考訳(メタデータ) (2023-11-16T18:55:58Z) - One-shot Detail Retouching with Patch Space Neural Transformation
Blending [0.0]
本稿では,一対の前後のサンプル画像に基づいて,入力画像の細部を自動的に修正するワンショット学習手法を提案する。
我々のアプローチは、新しい画像への正確で一般的な細部編集の転送を提供する。
論文 参考訳(メタデータ) (2022-10-03T20:24:36Z) - SpaceEdit: Learning a Unified Editing Space for Open-Domain Image
Editing [94.31103255204933]
オープンドメイン画像の色やトーン調整に着目したオープンドメイン画像編集のための統一モデルを提案する。
我々のモデルは、よりセマンティックで直感的で操作が容易な統合編集空間を学習する。
画像ペアを学習した編集空間の潜在コードに変換することで、下流編集タスクに我々のモデルを活用できることが示される。
論文 参考訳(メタデータ) (2021-11-30T23:53:32Z) - Deep Image Compositing [93.75358242750752]
ユーザ入力なしで高品質の画像合成を自動生成する手法を提案する。
ラプラシアン・ピラミッド・ブレンディングにインスパイアされ、フォアグラウンドや背景画像からの情報を効果的に融合させるために、密結合型多ストリーム融合ネットワークが提案されている。
実験により,提案手法は高品質な合成物を自動生成し,定性的かつ定量的に既存手法より優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-11-04T06:12:24Z) - A Generative Adversarial Approach with Residual Learning for Dust and
Scratches Artifacts Removal [0.0]
本稿では, フィルムスキャンから塵を除去し, ひっかき傷を除去できるGAN法を提案する。
残留学習は、トレーニングプロセスのスピードアップや、デノイングパフォーマンスの向上に利用されます。
我々は最先端の手法やソフトウェアアプリケーションを大幅に上回り、優れた結果をもたらす。
論文 参考訳(メタデータ) (2020-09-22T16:32:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。