論文の概要: SimpSON: Simplifying Photo Cleanup with Single-Click Distracting Object
Segmentation Network
- arxiv url: http://arxiv.org/abs/2305.17624v1
- Date: Sun, 28 May 2023 04:05:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 17:45:54.378080
- Title: SimpSON: Simplifying Photo Cleanup with Single-Click Distracting Object
Segmentation Network
- Title(参考訳): SimpSON: シングルクリックディストリクトオブジェクトセグメンテーションネットワークによる写真クリーンアップの簡易化
- Authors: Chuong Huynh, Yuqian Zhou, Zhe Lin, Connelly Barnes, Eli Shechtman,
Sohrab Amirghodsi, Abhinav Shrivastava
- Abstract要約: ワンクリックでタスクを遂行するために最適化された対話型トラクタ選択法を提案する。
本手法は従来の単視分割法により達成された精度とリコールを超越した手法である。
実験により, 未知の物体を対話的に, グループで効果的に, 正確に識別できることが実証された。
- 参考スコア(独自算出の注目度): 70.89436857471887
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In photo editing, it is common practice to remove visual distractions to
improve the overall image quality and highlight the primary subject. However,
manually selecting and removing these small and dense distracting regions can
be a laborious and time-consuming task. In this paper, we propose an
interactive distractor selection method that is optimized to achieve the task
with just a single click. Our method surpasses the precision and recall
achieved by the traditional method of running panoptic segmentation and then
selecting the segments containing the clicks. We also showcase how a
transformer-based module can be used to identify more distracting regions
similar to the user's click position. Our experiments demonstrate that the
model can effectively and accurately segment unknown distracting objects
interactively and in groups. By significantly simplifying the photo cleaning
and retouching process, our proposed model provides inspiration for exploring
rare object segmentation and group selection with a single click.
- Abstract(参考訳): 写真編集では、視覚障害を取り除き、全体的な画質を改善し、第一主題を強調するのが一般的である。
しかし、これら小さくて密集した散逸した領域を手動で選別・取り除くことは、手間と時間を要する作業である。
本稿では,ワンクリックでタスクを遂行するために最適化された対話型トラクタ選択法を提案する。
提案手法は,従来のパン光学セグメント法により達成された精度とリコールを超越し,クリックを含むセグメントを選択する。
また,ユーザのクリック位置に似た,より注意をそそる領域を特定するために,トランスフォーマティブベースのモジュールを使用する方法も紹介する。
実験により,未知の注意をそらす物体を対話的およびグループ的に,効果的かつ正確に分割できることを実証した。
画像のクリーニングとリタッチ処理を大幅に単純化することにより,レアオブジェクトのセグメンテーションとグループ選択をワンクリックで探索するためのインスピレーションを提供する。
関連論文リスト
- Learning from Exemplars for Interactive Image Segmentation [15.37506525730218]
同一カテゴリにおける1つのオブジェクトと複数のオブジェクトの両方に対して、新しい対話的セグメンテーションフレームワークを導入する。
当社のモデルでは,ターゲットIoUの85%と90%を達成するために,クリック数が2回削減されるため,ユーザの労力を約15%削減する。
論文 参考訳(メタデータ) (2024-06-17T12:38:01Z) - Zero-shot Image Editing with Reference Imitation [50.75310094611476]
我々は、ユーザーがより便利に創造性を発揮できるように、模倣編集と呼ばれる新しい形態の編集を提示する。
ビデオクリップから2つのフレームをランダムに選択し、あるフレームのいくつかの領域をマスクし、他のフレームからの情報を用いてマスクされた領域を復元する、MimicBrushと呼ばれる生成学習フレームワークを提案する。
各種試験事例における本手法の有効性を実験的に示すとともに,既存手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-06-11T17:59:51Z) - DiffUHaul: A Training-Free Method for Object Dragging in Images [78.93531472479202]
DiffUHaulと呼ばれるオブジェクトドラッグタスクのためのトレーニング不要な手法を提案する。
まず、各認知段階に注意マスキングを適用して、各生成を異なるオブジェクトにまたがってよりゆがみやすくする。
初期のデノナイジングステップでは、ソース画像とターゲット画像の注意特徴を補間して、新しいレイアウトを元の外観とスムーズに融合させる。
論文 参考訳(メタデータ) (2024-06-03T17:59:53Z) - IFSENet : Harnessing Sparse Iterations for Interactive Few-shot Segmentation Excellence [2.822194296769473]
新しいクラスのセグメンテーションを学ぶために必要な画像の数を減らします。
インタラクティブなセグメンテーション技術は、一度に1つのオブジェクトのセグメンテーションを漸進的に改善することのみに焦点を当てます。
2つの概念を組み合わせることで、新しいクラスのセグメンテーションモデルをトレーニングするのに要する労力を大幅に削減する。
論文 参考訳(メタデータ) (2024-03-22T10:15:53Z) - QIS : Interactive Segmentation via Quasi-Conformal Mappings [3.096214093393036]
ユーザ入力を正と負のクリックという形で組み込んだ準コンフォルマルな対話型セグメンテーション(QIS)モデルを提案する。
本稿では,QISが関心領域を含ませたり排除したりする能力の理論的支援を含む,提案モデルの徹底的な分析を行う。
論文 参考訳(メタデータ) (2024-02-22T16:49:58Z) - A Simple and Effective Use of Object-Centric Images for Long-Tailed
Object Detection [56.82077636126353]
シーン中心画像における物体検出を改善するために,物体中心画像を活用する。
私たちは、シンプルで驚くほど効果的なフレームワークを提示します。
我々の手法は、レアオブジェクトのオブジェクト検出(およびインスタンスセグメンテーション)の精度を相対的に50%(および33%)向上させることができる。
論文 参考訳(メタデータ) (2021-02-17T17:27:21Z) - Self-supervised Segmentation via Background Inpainting [96.10971980098196]
移動可能なカメラで撮影された単一の画像で、自己教師付き検出とセグメンテーションのアプローチを導入する。
我々は、提案に基づくセグメンテーションネットワークのトレーニングに利用する自己教師付き損失関数を利用する。
本手法は,標準ベンチマークから視覚的に切り離された画像の人間の検出とセグメント化に応用し,既存の自己監督手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-11T08:34:40Z) - Localized Interactive Instance Segmentation [24.55415554455844]
本稿では,ユーザインタラクションがオブジェクトの近接に制限されるクリック方式を提案する。
提案手法の有効性を,詳細な実験により示す。
論文 参考訳(メタデータ) (2020-10-18T23:24:09Z) - Look here! A parametric learning based approach to redirect visual
attention [49.609412873346386]
画像領域を微妙な画像編集によってより注目度の高いものにするための自動手法を提案する。
我々のモデルは、前景および背景画像領域に適用可能な、異なるグローバルパラメトリック変換セットを予測する。
編集により、任意の画像サイズでインタラクティブなレートでの推論が可能になり、簡単に動画に一般化できる。
論文 参考訳(メタデータ) (2020-08-12T16:08:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。