論文の概要: Prune and Repaint: Content-Aware Image Retargeting for any Ratio
- arxiv url: http://arxiv.org/abs/2410.22865v1
- Date: Wed, 30 Oct 2024 10:02:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:27:36.500803
- Title: Prune and Repaint: Content-Aware Image Retargeting for any Ratio
- Title(参考訳): Prune and Repaint:任意の比率でコンテンツ対応のイメージリターゲティング
- Authors: Feihong Shen, Chao Li, Yifeng Geng, Yongjian Deng, Hao Chen,
- Abstract要約: 本稿では,キーセマンティクスの保存と画質のバランスをとるために,PruneRepaintというコンテンツ認識手法を提案する。
前景の内容と構造に焦点を合わせることで、PruneRepaintアプローチは、キーコンテンツ損失と変形を適応的に回避する。
- 参考スコア(独自算出の注目度): 8.665919238538143
- License:
- Abstract: Image retargeting is the task of adjusting the aspect ratio of images to suit different display devices or presentation environments. However, existing retargeting methods often struggle to balance the preservation of key semantics and image quality, resulting in either deformation or loss of important objects, or the introduction of local artifacts such as discontinuous pixels and inconsistent regenerated content. To address these issues, we propose a content-aware retargeting method called PruneRepaint. It incorporates semantic importance for each pixel to guide the identification of regions that need to be pruned or preserved in order to maintain key semantics. Additionally, we introduce an adaptive repainting module that selects image regions for repainting based on the distribution of pruned pixels and the proportion between foreground size and target aspect ratio, thus achieving local smoothness after pruning. By focusing on the content and structure of the foreground, our PruneRepaint approach adaptively avoids key content loss and deformation, while effectively mitigating artifacts with local repainting. We conduct experiments on the public RetargetMe benchmark and demonstrate through objective experimental results and subjective user studies that our method outperforms previous approaches in terms of preserving semantics and aesthetics, as well as better generalization across diverse aspect ratios. Codes will be available at https://github.com/fhshen2022/PruneRepaint.
- Abstract(参考訳): 画像再ターゲティング(英: Image retargeting)とは、画像のアスペクト比を異なる表示装置やプレゼンテーション環境に合わせて調整するタスクである。
しかし、既存のリターゲティング手法では、キーセマンティクスの保存と画像品質のバランスがとれず、重要なオブジェクトの変形や損失、あるいは不連続画素や不整合再生コンテンツのような局所的なアーティファクトの導入が生じる。
これらの問題に対処するため,PruneRepaintというコンテンツ認識再ターゲット手法を提案する。
キーセマンティクスを維持するために、各ピクセルのセマンティクスの重要性を取り入れて、プルーニングや保存が必要な領域の識別を導く。
さらに,明細画素の分布と前景の大きさと目標アスペクト比の比に基づいて再描画のための画像領域を選択する適応的再描画モジュールを導入し,明細後の局所的滑らかさを実現する。
我々のPruneRepaintアプローチは、フォアグラウンドの内容と構造に焦点をあてることで、キーコンテンツ損失と変形を適応的に回避し、局所的な再塗装によるアーティファクトを効果的に緩和する。
我々はRetargetMeベンチマークの実験を行い、客観的な実験結果と主観的ユーザスタディを通して、本手法は、セマンティクスと美学の保存という点で従来の手法よりも優れており、また様々なアスペクト比の一般化も優れていることを実証した。
コードはhttps://github.com/fhshen2022/PruneRepaint.comから入手できる。
関連論文リスト
- Dense Feature Interaction Network for Image Inpainting Localization [28.028361409524457]
画像の悪質な操作において、画像内容の隠蔽や改ざんに使用することができる。
既存の手法は主に基本的なエンコーダ・デコーダ構造に依存しており、多くの場合、偽陽性が多くなる。
本稿では,Dense Feature Interaction Network (DeFI-Net) に基づく新しい塗り絵検出手法について述べる。
論文 参考訳(メタデータ) (2024-08-05T02:35:13Z) - RefFusion: Reference Adapted Diffusion Models for 3D Scene Inpainting [63.567363455092234]
RefFusionは,画像インペイント拡散モデルのマルチスケールパーソナライズに基づく,新しい3Dインペイント手法である。
我々のフレームワークは、制御性を維持しながら、オブジェクト除去の最先端の成果を達成する。
論文 参考訳(メタデータ) (2024-04-16T17:50:02Z) - OAIR: Object-Aware Image Retargeting Using PSO and Aesthetic Quality
Assessment [11.031841470875571]
以前の画像手法は、アーチファクトや歪みに苦しむ出力を生成する。
前景と背景の同時リサイズは、オブジェクトのアスペクト比の変化を引き起こす。
これらの問題を克服する手法を提案する。
論文 参考訳(メタデータ) (2022-09-11T07:16:59Z) - Perceptual Artifacts Localization for Inpainting [60.5659086595901]
そこで本研究では,知覚的アーティファクトの自動セグメンテーションの学習タスクを提案する。
データセット上で高度なセグメンテーションネットワークをトレーニングし、インペイントされた画像内のインペイントされたアーティファクトを確実にローカライズする。
また, 対象領域と対象領域全体との比率である知覚人工物比 (PAR) という新しい評価指標を提案する。
論文 参考訳(メタデータ) (2022-08-05T18:50:51Z) - Fast Hybrid Image Retargeting [0.0]
本稿では,コンテント・アウェア・トリミングを用いて歪みを定量化し,抑制する手法を提案する。
我々の手法は,実行時間のごく一部で実行しながら,最近の手法より優れています。
論文 参考訳(メタデータ) (2022-03-25T11:46:06Z) - A Wasserstein GAN for Joint Learning of Inpainting and its Spatial
Optimisation [3.4392739159262145]
空間的インペイントデータ最適化のための最初の生成逆ネットワークを提案する。
従来のアプローチとは対照的に、着色発電機とそれに対応するマスクネットワークのジョイントトレーニングが可能である。
これにより、従来のモデルよりも視覚的品質とスピードが大幅に向上し、現在の最適化ネットワークよりも優れています。
論文 参考訳(メタデータ) (2022-02-11T14:02:36Z) - Generative Memory-Guided Semantic Reasoning Model for Image Inpainting [34.092255842494396]
画像インペイントのための生成記憶誘導セマンティック推論モデル(GM-SRM)を提案する。
提案したGM-SRMは、既知の領域から画像内前駆体を学習すると同時に、画像間推論前駆体を蒸留し、劣化した領域の含有量を推定する。
Paris Street View、CelebA-HQ、Places2ベンチマークの大規模な実験は、GM-SRMが画像インペイントの最先端手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2021-10-01T08:37:34Z) - Spatially-Adaptive Image Restoration using Distortion-Guided Networks [51.89245800461537]
空間的に変化する劣化に苦しむ画像の復元のための学習ベースソリューションを提案する。
本研究では、歪み局所化情報を活用し、画像中の困難な領域に動的に適応するネットワーク設計であるSPAIRを提案する。
論文 参考訳(メタデータ) (2021-08-19T11:02:25Z) - ReGO: Reference-Guided Outpainting for Scenery Image [82.21559299694555]
生成的敵対学習は、与えられた画像に対して意味的一貫したコンテンツを生成することによって、画像の画質を向上した。
本研究は, 近隣の画素を借用することにより, テクスチャに富んだ結果を合成する原理について検討する。
生成した部品のスタイルが参照画像の影響を受けないようにするために,ReGOを増強し,スタイル一貫性のある結果を合成するスタイルランキングの損失が提案されている。
論文 参考訳(メタデータ) (2021-06-20T02:34:55Z) - Context-Aware Image Inpainting with Learned Semantic Priors [100.99543516733341]
欠落した内容を推定するために意味的に意味のある前文タスクを導入する。
本研究では,グローバルなセマンティクスと局所的な特徴を適応的に統合した文脈認識型画像インパインティングモデルを提案する。
論文 参考訳(メタデータ) (2021-06-14T08:09:43Z) - Guidance and Evaluation: Semantic-Aware Image Inpainting for Mixed
Scenes [54.836331922449666]
本稿では,SGE-Net(Semantic Guidance and Evaluation Network)を提案する。
セマンティックセグメンテーションマップをインペイントの各尺度のガイダンスとして利用し、そこで位置依存推論を再評価する。
混合シーンの現実画像に対する実験により,提案手法が最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-03-15T17:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。