論文の概要: RePainter: Empowering E-commerce Object Removal via Spatial-matting Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2510.07721v1
- Date: Thu, 09 Oct 2025 02:57:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.827826
- Title: RePainter: Empowering E-commerce Object Removal via Spatial-matting Reinforcement Learning
- Title(参考訳): RePainter:空間マッチング強化学習によるEコマースオブジェクトの除去
- Authors: Zipeng Guo, Lichen Ma, Xiaolong Fu, Gaojing Zhou, Lan Yang, Yuchen Zhou, Linkai Liu, Yu He, Ximan Liu, Shiping Dong, Jingling Fu, Zhen Chen, Yu Shi, Junshi Huang, Jason Li, Chao Gou,
- Abstract要約: Repainterは、空間マッピングの軌道修正とグループ相対的ポリシー最適化を統合する強化学習フレームワークである。
提案手法は,背景コンテキストを強調するために注意機構を変調し,より高い逆サンプルを生成し,不要なオブジェクト挿入を減らす。
EcomPaint-100Kは高品質で大規模な電子商取引の塗装データセットであり、標準化されたベンチマークEcomPaint-Benchは公正な評価を目的としている。
- 参考スコア(独自算出の注目度): 26.053034031708254
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In web data, product images are central to boosting user engagement and advertising efficacy on e-commerce platforms, yet the intrusive elements such as watermarks and promotional text remain major obstacles to delivering clear and appealing product visuals. Although diffusion-based inpainting methods have advanced, they still face challenges in commercial settings due to unreliable object removal and limited domain-specific adaptation. To tackle these challenges, we propose Repainter, a reinforcement learning framework that integrates spatial-matting trajectory refinement with Group Relative Policy Optimization (GRPO). Our approach modulates attention mechanisms to emphasize background context, generating higher-reward samples and reducing unwanted object insertion. We also introduce a composite reward mechanism that balances global, local, and semantic constraints, effectively reducing visual artifacts and reward hacking. Additionally, we contribute EcomPaint-100K, a high-quality, large-scale e-commerce inpainting dataset, and a standardized benchmark EcomPaint-Bench for fair evaluation. Extensive experiments demonstrate that Repainter significantly outperforms state-of-the-art methods, especially in challenging scenes with intricate compositions. We will release our code and weights upon acceptance.
- Abstract(参考訳): Webデータでは、製品イメージは、Eコマースプラットフォームにおけるユーザエンゲージメントと広告効果を高めるために中心的な存在であるが、透かしやプロモーションテキストといった侵入的な要素は、明確で魅力的な製品ヴィジュアライゼーションを提供する上で大きな障害である。
拡散型塗布法は進歩しているが, 信頼性の低いオブジェクト除去やドメイン固有適応の制限により, 商業環境での課題に直面している。
これらの課題に対処するために,空間マッピングの軌道修正とグループ相対政策最適化(GRPO)を統合した強化学習フレームワークであるRepainterを提案する。
提案手法は,背景コンテキストを強調するために注意機構を変調し,より高い逆サンプルを生成し,不要なオブジェクト挿入を減らす。
また、グローバル、ローカル、セマンティック制約のバランスをとる複合報酬機構を導入し、視覚的アーティファクトを効果的に削減し、報酬のハッキングを行う。
さらに,EcomPaint-100K,高品質で大規模なeコマースインペインティングデータセット,および標準化されたベンチマークであるEcomPaint-Benchを公正な評価に貢献する。
大規模な実験により、Repainterは最先端の手法、特に複雑な構成を持つ挑戦的なシーンにおいて、著しく優れていることが示された。
私たちは受け入れに応じてコードと重みを公開します。
関連論文リスト
- DreamPainter: Image Background Inpainting for E-commerce Scenarios [9.12444106077783]
我々はDreamPainterを紹介した。DreamPainterはテキストプロンプトと参照画像情報を付加的な制御信号として組み込む新しいフレームワークである。
提案手法は,テキストプロンプトと参照画像情報の両方を効果的に統合しつつ,高い製品一貫性を維持しながら,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2025-08-04T07:54:37Z) - ObjectClear: Complete Object Removal via Object-Effect Attention [56.2893552300215]
我々は、オブジェクトとそれに関連する視覚的アーティファクトの両方の正確なマスクとともに、オブジェクト効果と不要なペア画像を提供するOBERという、オブジェクト・エフェクト除去のための新しいデータセットを紹介した。
本研究では,物体効果の注意機構を組み込んだ新しいフレームワーク ObjectClear を提案する。
実験では、ObjectClearが既存のメソッドよりも優れており、特に複雑なシナリオにおいて、オブジェクト・エフェクトの除去品質と背景の忠実さの改善を実現している。
論文 参考訳(メタデータ) (2025-05-28T17:51:17Z) - OmniPaint: Mastering Object-Oriented Editing via Disentangled Insertion-Removal Inpainting [54.525583840585305]
我々はオブジェクトの削除と挿入を相互依存プロセスとして再概念化する統合フレームワークであるOmniPaintを紹介した。
我々の新しいCFDメトリクスは、コンテキスト整合性とオブジェクト幻覚の堅牢で参照不要な評価を提供する。
論文 参考訳(メタデータ) (2025-03-11T17:55:27Z) - OmniEraser: Remove Objects and Their Effects in Images with Paired Video-Frame Data [21.469971783624402]
本稿では,現実的な物体影と反射を伴う10万以上の高品質なサンプルからなる大規模データセットであるVideo4Removalを提案する。
ビデオフレームと市販のビジョンモデルからオブジェクト-バックグラウンドペアを構築することにより、データ取得の作業コストを大幅に削減することができる。
形状的なアーティファクトや意図しないコンテンツを生成するのを避けるために,Object-Background Guidanceを提案する。
我々は,オブジェクトマスクのみを入力として,オブジェクトとその視覚効果をシームレスに除去する新しい手法であるOmniEraserを提案する。
論文 参考訳(メタデータ) (2025-01-13T15:12:40Z) - E-Commerce Inpainting with Mask Guidance in Controlnet for Reducing Overcompletion [13.67619785783182]
本稿では,拡散モデル生成におけるコア痛点,すなわちオーバーコンプリートを系統的に解析し,対処する。
本手法は実用化において有望な成果を上げており,本分野でのインスピレーションとなる技術レポートとして機能することを願っている。
論文 参考訳(メタデータ) (2024-09-15T10:10:13Z) - CLIPAway: Harmonizing Focused Embeddings for Removing Objects via Diffusion Models [16.58831310165623]
CLIPAwayは、CLIP埋め込みを活用して、前景要素を除外しながらバックグラウンドリージョンに集中する新しいアプローチである。
背景を優先する埋め込みを識別することで、塗装精度と品質を向上させる。
特別なトレーニングデータセットや高価な手作業によるアノテーションに依存する他の方法とは異なり、CLIPAwayは柔軟なプラグイン・アンド・プレイソリューションを提供する。
論文 参考訳(メタデータ) (2024-06-13T17:50:28Z) - A Straightforward Gradient-Based Approach for High-Tc Superconductor Design: Leveraging Domain Knowledge via Adaptive Constraints [0.0]
材料設計は、望ましい性質を持つ新規化合物を発見することを目的としている。
従来の要素置換アプローチは、様々なドメイン知識を容易に取り入れるが、狭義の探索空間に限られる。
深層生成モデルは、広大な構成的景観を効率的に探索するが、それらは柔軟にドメイン知識を統合するのに苦労する。
本稿では,これらの強度を組み合わせ,効率と適応性の両方を提供する勾配型材料設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-20T14:23:17Z) - ZoomNeXt: A Unified Collaborative Pyramid Network for Camouflaged Object Detection [70.11264880907652]
最近のオブジェクト(COD)は、現実のシナリオでは極めて複雑で難しい、視覚的にブレンドされたオブジェクトを周囲に分割しようと試みている。
本研究では,不明瞭な画像を観察したり,ズームインしたりアウトしたりする際の人間の行動を模倣する,効果的な統合協調ピラミッドネットワークを提案する。
我々のフレームワークは、画像とビデオのCODベンチマークにおいて、既存の最先端の手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-10-31T06:11:23Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - Searching a Compact Architecture for Robust Multi-Exposure Image Fusion [55.37210629454589]
2つの大きなスタブリングブロックは、画素の不一致や非効率な推論など、開発を妨げる。
本研究では,高機能なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを取り入れたアーキテクチャ検索に基づくパラダイムを提案する。
提案手法は様々な競争方式より優れており、一般的なシナリオではPSNRが3.19%向上し、不整合シナリオでは23.5%向上した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。