論文の概要: RetouchLLM: Training-free White-box Image Retouching
- arxiv url: http://arxiv.org/abs/2510.08054v1
- Date: Thu, 09 Oct 2025 10:40:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.016089
- Title: RetouchLLM: Training-free White-box Image Retouching
- Title(参考訳): RetouchLLM: トレーニング不要のホワイトボックスイメージリタッチ
- Authors: Moon Ye-Bin, Roy Miles, Tae-Hyun Oh, Ismail Elezi, Jiankang Deng,
- Abstract要約: トレーニング不要なホワイトボックス画像リタッチシステムであるRetouchLLMを提案する。
高解像度の画像に直接、解釈可能でコードベースのリタッチを実行する。
我々のフレームワークは、人間がマルチステップのリタッチを行う方法と同じような方法で、徐々に画像を強化する。
- 参考スコア(独自算出の注目度): 76.79706360982162
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image retouching not only enhances visual quality but also serves as a means of expressing personal preferences and emotions. However, existing learning-based approaches require large-scale paired data and operate as black boxes, making the retouching process opaque and limiting their adaptability to handle diverse, user- or image-specific adjustments. In this work, we propose RetouchLLM, a training-free white-box image retouching system, which requires no training data and performs interpretable, code-based retouching directly on high-resolution images. Our framework progressively enhances the image in a manner similar to how humans perform multi-step retouching, allowing exploration of diverse adjustment paths. It comprises of two main modules: a visual critic that identifies differences between the input and reference images, and a code generator that produces executable codes. Experiments demonstrate that our approach generalizes well across diverse retouching styles, while natural language-based user interaction enables interpretable and controllable adjustments tailored to user intent.
- Abstract(参考訳): イメージリタッチは視覚的品質を高めるだけでなく、個人の好みや感情を表現する手段としても機能する。
しかし、既存の学習ベースのアプローチでは、大規模なペアリングデータを必要とし、ブラックボックスとして動作する。
本研究では,トレーニング不要なホワイトボックス画像のリタッチシステムであるRetouchLLMを提案する。
この枠組みは、人間が多段階のリタッチを行う方法と同じような方法で、段階的に画像を強化し、多様な調整経路の探索を可能にする。
入力画像と参照画像の違いを識別する視覚的批評家と、実行可能なコードを生成するコードジェネレータの2つの主要モジュールで構成されている。
自然言語によるユーザインタラクションは,ユーザ意図に合わせて,解釈可能かつ制御可能な調整を可能にする。
関連論文リスト
- Image Reconstruction as a Tool for Feature Analysis [2.0249250133493195]
本稿では,画像再構成による視覚特徴の解釈のための新しい手法を提案する。
画像ベースタスクで事前訓練されたエンコーダは、非画像タスクで訓練されたものよりも、はるかに多くの画像情報を保持することを示す。
我々のアプローチはどんな視覚エンコーダにも適用でき、特徴空間の内部構造に光を遮ることができる。
論文 参考訳(メタデータ) (2025-06-09T14:32:18Z) - INRetouch: Context Aware Implicit Neural Representation for Photography Retouching [54.17599183365242]
本稿では、プロの編集から前後のイメージペアを通して学習する新しいリタッチ転送手法を提案する。
我々は,画像の内容とコンテキストに基づいて,適応的に編集を適用することを学習する文脈認識型インプシットニューラル表現を開発した。
提案手法は,参照編集から暗黙的な変換を抽出し,それらを新しい画像に適用する。
論文 参考訳(メタデータ) (2024-12-05T03:31:48Z) - DiffRetouch: Using Diffusion to Retouch on the Shoulder of Experts [45.730449182899754]
DiffRetouch という拡散型リタッチ方式。
4つの画像属性を調整可能とし、ユーザフレンドリーな編集機構を提供する。
テクスチャ歪みと制御感度の問題をそれぞれ扱うために,アフィン二元格子とコントラスト学習方式を導入する。
論文 参考訳(メタデータ) (2024-07-04T09:09:42Z) - Automatic Controllable Colorization via Imagination [55.489416987587305]
本稿では,反復的な編集と修正が可能な自動色付けフレームワークを提案する。
グレースケール画像内のコンテンツを理解することにより、トレーニング済みの画像生成モデルを用いて、同じコンテンツを含む複数の画像を生成する。
これらの画像は、人間の専門家の過程を模倣して、色付けの参考となる。
論文 参考訳(メタデータ) (2024-04-08T16:46:07Z) - Learning Diverse Tone Styles for Image Retouching [73.60013618215328]
本稿では,フローベースアーキテクチャの標準化により,多様な画像のリタッチを学習することを提案する。
ジョイントトレーニングパイプラインは、スタイルエンコーダ、条件付きRetouchNet、イメージトーンスタイル正規化フロー(TSFlow)モジュールで構成される。
提案手法は最先端の手法に対して良好に動作し,多様な結果を生成するのに有効である。
論文 参考訳(メタデータ) (2022-07-12T09:49:21Z) - Enhance Images as You Like with Unpaired Learning [8.104571453311442]
本稿では,低照度から高照度の画像空間における一対多の関係を学習するために,軽量な一経路条件生成対向ネットワーク(cGAN)を提案する。
我々のネットワークは、様々な参照画像上に設定された所定の入力条件から、拡張された画像の集合を生成することを学習する。
我々のモデルは、ノイズとクリーンなデータセットの完全な教師付き手法と同等に競合する視覚的および定量的な結果を得る。
論文 参考訳(メタデータ) (2021-10-04T03:00:44Z) - Enjoy Your Editing: Controllable GANs for Image Editing via Latent Space
Navigation [136.53288628437355]
コントロール可能なセマンティックイメージ編集により、ユーザーはクリック数回で画像属性全体を変更できる。
現在のアプローチでは、絡み合った属性編集、グローバルなイメージアイデンティティの変更、フォトリアリズムの低下に悩まされることが多い。
本稿では,主に定性評価に焦点を当てた先行研究とは異なり,制御可能な編集性能を測定するための定量的評価手法を提案する。
論文 参考訳(メタデータ) (2021-02-01T21:38:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。