論文の概要: Deep Saliency Prior for Reducing Visual Distraction
- arxiv url: http://arxiv.org/abs/2109.01980v1
- Date: Sun, 5 Sep 2021 03:19:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-07 16:46:51.505626
- Title: Deep Saliency Prior for Reducing Visual Distraction
- Title(参考訳): 視覚障害の軽減に先立つ深層塩分濃度
- Authors: Kfir Aberman, Junfeng He, Yossi Gandelsman, Inbar Mosseri, David E.
Jacobs, Kai Kohlhoff, Yael Pritch, Michael Rubinstein
- Abstract要約: 画像の歪みを軽減するための強力な編集効果を多数生成する。
結果として生じる効果は、人間の視覚システムに関する認知研究と一致している。
本研究は,様々な自然画像に対して,オリジナル画像と編集結果との視線変化を評価し,評価するための知覚的研究を行う。
- 参考スコア(独自算出の注目度): 12.28561668097479
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Using only a model that was trained to predict where people look at images,
and no additional training data, we can produce a range of powerful editing
effects for reducing distraction in images. Given an image and a mask
specifying the region to edit, we backpropagate through a state-of-the-art
saliency model to parameterize a differentiable editing operator, such that the
saliency within the masked region is reduced. We demonstrate several operators,
including: a recoloring operator, which learns to apply a color transform that
camouflages and blends distractors into their surroundings; a warping operator,
which warps less salient image regions to cover distractors, gradually
collapsing objects into themselves and effectively removing them (an effect
akin to inpainting); a GAN operator, which uses a semantic prior to fully
replace image regions with plausible, less salient alternatives. The resulting
effects are consistent with cognitive research on the human visual system
(e.g., since color mismatch is salient, the recoloring operator learns to
harmonize objects' colors with their surrounding to reduce their saliency),
and, importantly, are all achieved solely through the guidance of the
pretrained saliency model, with no additional supervision. We present results
on a variety of natural images and conduct a perceptual study to evaluate and
validate the changes in viewers' eye-gaze between the original images and our
edited results.
- Abstract(参考訳): 画像がどこにあるかを予測するためにトレーニングされたモデルのみを使用し、追加のトレーニングデータがないため、画像の歪みを減らすための強力な編集効果が生成される。
画像と編集対象領域を指定するマスクが与えられた場合、我々は最先端のサリエンシーモデルを介してバックプロパゲーションを行い、マスキング領域内のサリエンシーを減少させるように、差別化可能な編集演算子をパラメータ化する。
色変換を学習し、周囲に注意をそらす色変換を施す recoloring operator や、注意をそらすために画像領域を弱め、徐々にオブジェクトを自分自身に分解し、それらを効果的に除去する warping operator や、画像領域を完全に置き換えるためにセマンティクスを使用する gan operator など、いくつかの演算子を実演する。
結果として得られる効果は、人間の視覚システムに関する認知研究(例えば、色ミスマッチはサルエントであるため、再色操作者は、周囲の色と周囲の色を調和させることを学び、サルエンシーを減少させる)と一致し、最も重要なのは、事前訓練されたサルエンシーモデルの指導によってのみ、追加の監督なしで達成されることである。
本研究は,様々な自然画像について結果を提示し,原画像と編集結果との視線の変化を評価し,検証するための知覚研究を行う。
関連論文リスト
- ColorEdit: Training-free Image-Guided Color editing with diffusion model [23.519884152019642]
画像編集タスクにはテキスト・ツー・イメージ(T2I)拡散モデルが採用されており、顕著な有効性を示している。
しかし, テキストプロンプトから, 物体のクロスアテンションマップと新たな色属性との衝突や注意漏れにより, テキスト誘導画像編集法では物体の色が変化しない可能性がある。
本稿では,物体の色を微調整や訓練を必要とせず,手軽で安定的で効果的な画像誘導手法を提案する。
論文 参考訳(メタデータ) (2024-11-15T14:45:58Z) - DiffUHaul: A Training-Free Method for Object Dragging in Images [78.93531472479202]
DiffUHaulと呼ばれるオブジェクトドラッグタスクのためのトレーニング不要な手法を提案する。
まず、各認知段階に注意マスキングを適用して、各生成を異なるオブジェクトにまたがってよりゆがみやすくする。
初期のデノナイジングステップでは、ソース画像とターゲット画像の注意特徴を補間して、新しいレイアウトを元の外観とスムーズに融合させる。
論文 参考訳(メタデータ) (2024-06-03T17:59:53Z) - Detecting Recolored Image by Spatial Correlation [60.08643417333974]
画像のリカラー化は、画像の色値を操作して新しいスタイルを与える、新たな編集技術である。
本稿では,空間相関の観点から,従来型と深層学習による再色検出の汎用的検出能力を示す解を探索する。
提案手法は,複数のベンチマークデータセット上での最先端検出精度を実現し,未知の種類の再色法を適切に一般化する。
論文 参考訳(メタデータ) (2022-04-23T01:54:06Z) - LTT-GAN: Looking Through Turbulence by Inverting GANs [86.25869403782957]
本稿では,よく訓練されたGANによってカプセル化された視覚的事前情報を利用した最初の乱流緩和手法を提案する。
視覚的先行性に基づき、周期的な文脈距離で復元された画像の同一性を維持することを学ぶことを提案する。
本手法は, 回復した結果の視覚的品質と顔認証精度の両方において, 先行技術よりも優れていた。
論文 参考訳(メタデータ) (2021-12-04T16:42:13Z) - Enjoy Your Editing: Controllable GANs for Image Editing via Latent Space
Navigation [136.53288628437355]
コントロール可能なセマンティックイメージ編集により、ユーザーはクリック数回で画像属性全体を変更できる。
現在のアプローチでは、絡み合った属性編集、グローバルなイメージアイデンティティの変更、フォトリアリズムの低下に悩まされることが多い。
本稿では,主に定性評価に焦点を当てた先行研究とは異なり,制御可能な編集性能を測定するための定量的評価手法を提案する。
論文 参考訳(メタデータ) (2021-02-01T21:38:36Z) - Color and Edge-Aware Adversarial Image Perturbations [0.0]
対向摂動を構成するための2つの新しい手法を開発した。
Edge-Aware法は、画像の滑らかな領域で許容される摂動の大きさを減らす。
Color-Aware と Edge-Aware のメソッドも同時に実装できる。
論文 参考訳(メタデータ) (2020-08-28T03:02:20Z) - Look here! A parametric learning based approach to redirect visual
attention [49.609412873346386]
画像領域を微妙な画像編集によってより注目度の高いものにするための自動手法を提案する。
我々のモデルは、前景および背景画像領域に適用可能な、異なるグローバルパラメトリック変換セットを予測する。
編集により、任意の画像サイズでインタラクティブなレートでの推論が可能になり、簡単に動画に一般化できる。
論文 参考訳(メタデータ) (2020-08-12T16:08:36Z) - Disentangle Perceptual Learning through Online Contrastive Learning [16.534353501066203]
人間の視覚的知覚による現実的な結果の獲得は、画像変換タスクにおける中心的な関心事である。
本稿では,事前学習した分類ネットワークの特徴表現の中で,人間の視覚知覚に限定した次元しか関連していないことを論じる。
このような仮定の下で,提案したオンラインコントラスト学習を通じて,認識関連次元を表現から切り離そうとする。
論文 参考訳(メタデータ) (2020-06-24T06:48:38Z) - Watching the World Go By: Representation Learning from Unlabeled Videos [78.22211989028585]
近年の単一画像教師なし表現学習技術は,様々なタスクにおいて顕著な成功を収めている。
本稿では,この自然な拡張を無償で提供することを論じる。
そこで本稿では,ビデオノイズコントラスト推定(Voice Noise Contrastive Estimation)を提案する。
論文 参考訳(メタデータ) (2020-03-18T00:07:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。