論文の概要: SimpSON: Simplifying Photo Cleanup with Single-Click Distracting Object
Segmentation Network
- arxiv url: http://arxiv.org/abs/2305.17624v1
- Date: Sun, 28 May 2023 04:05:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 17:45:54.378080
- Title: SimpSON: Simplifying Photo Cleanup with Single-Click Distracting Object
Segmentation Network
- Title(参考訳): SimpSON: シングルクリックディストリクトオブジェクトセグメンテーションネットワークによる写真クリーンアップの簡易化
- Authors: Chuong Huynh, Yuqian Zhou, Zhe Lin, Connelly Barnes, Eli Shechtman,
Sohrab Amirghodsi, Abhinav Shrivastava
- Abstract要約: ワンクリックでタスクを遂行するために最適化された対話型トラクタ選択法を提案する。
本手法は従来の単視分割法により達成された精度とリコールを超越した手法である。
実験により, 未知の物体を対話的に, グループで効果的に, 正確に識別できることが実証された。
- 参考スコア(独自算出の注目度): 70.89436857471887
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In photo editing, it is common practice to remove visual distractions to
improve the overall image quality and highlight the primary subject. However,
manually selecting and removing these small and dense distracting regions can
be a laborious and time-consuming task. In this paper, we propose an
interactive distractor selection method that is optimized to achieve the task
with just a single click. Our method surpasses the precision and recall
achieved by the traditional method of running panoptic segmentation and then
selecting the segments containing the clicks. We also showcase how a
transformer-based module can be used to identify more distracting regions
similar to the user's click position. Our experiments demonstrate that the
model can effectively and accurately segment unknown distracting objects
interactively and in groups. By significantly simplifying the photo cleaning
and retouching process, our proposed model provides inspiration for exploring
rare object segmentation and group selection with a single click.
- Abstract(参考訳): 写真編集では、視覚障害を取り除き、全体的な画質を改善し、第一主題を強調するのが一般的である。
しかし、これら小さくて密集した散逸した領域を手動で選別・取り除くことは、手間と時間を要する作業である。
本稿では,ワンクリックでタスクを遂行するために最適化された対話型トラクタ選択法を提案する。
提案手法は,従来のパン光学セグメント法により達成された精度とリコールを超越し,クリックを含むセグメントを選択する。
また,ユーザのクリック位置に似た,より注意をそそる領域を特定するために,トランスフォーマティブベースのモジュールを使用する方法も紹介する。
実験により,未知の注意をそらす物体を対話的およびグループ的に,効果的かつ正確に分割できることを実証した。
画像のクリーニングとリタッチ処理を大幅に単純化することにより,レアオブジェクトのセグメンテーションとグループ選択をワンクリックで探索するためのインスピレーションを提供する。
関連論文リスト
- QIS : Interactive Segmentation via Quasi-Conformal Mappings [3.096214093393036]
ユーザ入力を正と負のクリックという形で組み込んだ準コンフォルマルな対話型セグメンテーション(QIS)モデルを提案する。
本稿では,QISが関心領域を含ませたり排除したりする能力の理論的支援を含む,提案モデルの徹底的な分析を行う。
論文 参考訳(メタデータ) (2024-02-22T16:49:58Z) - Self-Correlation and Cross-Correlation Learning for Few-Shot Remote
Sensing Image Semantic Segmentation [27.59330408178435]
リモートセマンティックセマンティックセマンティックセマンティクスは、クエリイメージからターゲットオブジェクトをセグメントすることを学ぶことを目的としている。
本稿では,数発のリモートセンシング画像セマンティックセマンティックセグメンテーションのための自己相関・相互相関学習ネットワークを提案する。
本モデルは,サポート画像とクエリ画像の自己相関と相互相関の両方を考慮し,一般化を促進させる。
論文 参考訳(メタデータ) (2023-09-11T21:53:34Z) - DynaMITe: Dynamic Query Bootstrapping for Multi-object Interactive
Segmentation Transformer [58.95404214273222]
最先端のインスタンスセグメンテーション手法の多くは、訓練のために大量のピクセル精度のグランドトルースに依存している。
ユーザインタラクションを時間的クエリとして表現するDynaMITeという,より効率的なアプローチを導入する。
我々のアーキテクチャはまた、改善中にイメージ機能を再計算する必要をなくし、単一のイメージに複数のインスタンスをセグメント化するためのインタラクションを少なくする。
論文 参考訳(メタデータ) (2023-04-13T16:57:02Z) - Contour-based Interactive Segmentation [4.164728134421114]
ユーザインタラクションの自然な形態をゆるい輪郭とみなし、輪郭に基づく対話的セグメンテーション手法を導入する。
一つの輪郭が複数のクリックと同じ精度で、ユーザインタラクションの必要量を減らすことを実証する。
論文 参考訳(メタデータ) (2023-02-13T13:35:26Z) - NudgeSeg: Zero-Shot Object Segmentation by Repeated Physical Interaction [8.712677353734627]
未知のオブジェクトを乱れたシーンに分割する最初のフレームワークを、オブジェクトに対して繰り返し「うなずく」ことによって提示する。
ゼロショットオブジェクトでは, 86%以上の印象的な平均検出率を示す。
論文 参考訳(メタデータ) (2021-09-22T05:17:09Z) - A Simple and Effective Use of Object-Centric Images for Long-Tailed
Object Detection [56.82077636126353]
シーン中心画像における物体検出を改善するために,物体中心画像を活用する。
私たちは、シンプルで驚くほど効果的なフレームワークを提示します。
我々の手法は、レアオブジェクトのオブジェクト検出(およびインスタンスセグメンテーション)の精度を相対的に50%(および33%)向上させることができる。
論文 参考訳(メタデータ) (2021-02-17T17:27:21Z) - Self-supervised Segmentation via Background Inpainting [96.10971980098196]
移動可能なカメラで撮影された単一の画像で、自己教師付き検出とセグメンテーションのアプローチを導入する。
我々は、提案に基づくセグメンテーションネットワークのトレーニングに利用する自己教師付き損失関数を利用する。
本手法は,標準ベンチマークから視覚的に切り離された画像の人間の検出とセグメント化に応用し,既存の自己監督手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-11T08:34:40Z) - Localized Interactive Instance Segmentation [24.55415554455844]
本稿では,ユーザインタラクションがオブジェクトの近接に制限されるクリック方式を提案する。
提案手法の有効性を,詳細な実験により示す。
論文 参考訳(メタデータ) (2020-10-18T23:24:09Z) - DyStaB: Unsupervised Object Segmentation via Dynamic-Static
Bootstrapping [72.84991726271024]
我々は,コヒーレントなシーン全体を移動しているように見えるシーンの画像の一部を検出し,分割するための教師なしの手法について述べる。
提案手法はまず,セグメント間の相互情報を最小化することにより,運動場を分割する。
セグメントを使用してオブジェクトモデルを学習し、静的なイメージの検出に使用することができる。
論文 参考訳(メタデータ) (2020-08-16T22:05:13Z) - Look here! A parametric learning based approach to redirect visual
attention [49.609412873346386]
画像領域を微妙な画像編集によってより注目度の高いものにするための自動手法を提案する。
我々のモデルは、前景および背景画像領域に適用可能な、異なるグローバルパラメトリック変換セットを予測する。
編集により、任意の画像サイズでインタラクティブなレートでの推論が可能になり、簡単に動画に一般化できる。
論文 参考訳(メタデータ) (2020-08-12T16:08:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。