論文の概要: Saliency Enhancement using Superpixel Similarity
- arxiv url: http://arxiv.org/abs/2112.00665v1
- Date: Wed, 1 Dec 2021 17:22:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-12-02 14:54:33.446518
- Title: Saliency Enhancement using Superpixel Similarity
- Title(参考訳): 超画素類似性を用いた塩分向上
- Authors: Leonardo de Melo Joao, Alexandre Xavier Falcao
- Abstract要約: Saliency Object Detection (SOD) は画像解析にいくつかの応用がある。
深層学習に基づくSOD法は最も効果的であるが、類似した色を持つ前景の部品を見逃すことがある。
スーパーピクセル類似性(SESS)に対するtextitSaliency Enhancement というポストプロセッシング手法を導入する。
我々は,SESSが5つの画像データセット上での3つのディープラーニングに基づくSOD手法の結果を連続的に,かつ著しく改善できることを実証した。
- 参考スコア(独自算出の注目度): 77.34726150561087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Saliency Object Detection (SOD) has several applications in image analysis.
Deep-learning-based SOD methods are among the most effective, but they may miss
foreground parts with similar colors. To circumvent the problem, we introduce a
post-processing method, named \textit{Saliency Enhancement over Superpixel
Similarity} (SESS), which executes two operations alternately for saliency
completion: object-based superpixel segmentation and superpixel-based saliency
estimation. SESS uses an input saliency map to estimate seeds for superpixel
delineation and define superpixel queries in foreground and background. A new
saliency map results from color similarities between queries and superpixels.
The process repeats for a given number of iterations, such that all generated
saliency maps are combined into a single one by cellular automata. Finally,
post-processed and initial maps are merged using their average values per
superpixel. We demonstrate that SESS can consistently and considerably improve
the results of three deep-learning-based SOD methods on five image datasets.
- Abstract(参考訳): Saliency Object Detection (SOD) は画像解析にいくつかの応用がある。
深層学習に基づくSOD法は最も効果的であるが、類似した色を持つ前景の部品を見逃すことがある。
この問題を回避するために,本稿では,オブジェクトベースのスーパーピクセルセグメンテーションと,スーパーピクセルベースのサリエンシー推定の2つの操作を交互に実行する,sess(superpixel similarity over superpixel similarity})というポストプロセッシング手法を紹介する。
SESSは入力サリエンシマップを使用して、スーパーピクセルのデライン化のためにシードを推定し、フォアグラウンドとバックグラウンドでスーパーピクセルクエリを定義する。
新しいサリエンシマップは、クエリとスーパーピクセル間の色類似性から得られる。
このプロセスは所定の回数の反復を繰り返すので、生成されたすべてのサリエンシマップはセルオートマトンによって1つにまとめられる。
最後に、後処理と初期マップは、各スーパーピクセルの平均値を使ってマージされる。
我々は,SESSが5つの画像データセット上で3つのディープラーニングベースのSOD手法の結果を連続的に,かつ著しく改善できることを実証した。
関連論文リスト
- Superpixels algorithms through network community detection [0.0]
コミュニティ検出は複雑なネットワーク分析の強力なツールであり、様々な研究分野の応用を見出すことができる。
スーパーピクセルは、可能な限りオリジナル情報を保存しながら、画像をより小さなレベルで表現することを目的としている。
4つの連結画素グラフ上で,最先端のコミュニティ検出アルゴリズムによって計算されたスーパーピクセルの効率について検討した。
論文 参考訳(メタデータ) (2023-08-27T13:13:28Z) - Efficient Multiscale Object-based Superpixel Framework [62.48475585798724]
我々は,SICLE(Iterative CLEarcutting)によるスーパーピクセルという,新しいスーパーピクセルフレームワークを提案する。
SICLEは、複数スケールのセグメンテーションをオンザフライで生成できるオブジェクト情報を利用する。
これは最近のスーパーピクセル法を一般化し、複数のデライン化指標に従って効率と効率性に関する最先端のアプローチを超越している。
論文 参考訳(メタデータ) (2022-04-07T15:59:38Z) - Generating Superpixels for High-resolution Images with Decoupled Patch
Calibration [82.21559299694555]
Patch Networks (PCNet) は高解像度のスーパーピクセルセグメンテーションを効率的かつ正確に実装するように設計されている。
DPCは高解像度画像から局所パッチを取得し、動的にバイナリマスクを生成し、ネットワークを領域境界に集中させる。
特に、DPCは高解像度画像からローカルパッチを取り、動的にバイナリマスクを生成して、ネットワークを領域境界に集中させる。
論文 参考訳(メタデータ) (2021-08-19T10:33:05Z) - HERS Superpixels: Deep Affinity Learning for Hierarchical Entropy Rate
Segmentation [0.0]
スーパーピクセルセグメンテーションのための2段階グラフベースのフレームワークを提案する。
最初の段階では,ペアワイズ画素親和性を学習するディープ親和性学習ネットワークを導入する。
第2段階では階層エントロピーレート(HERS)と呼ばれる高効率スーパーピクセル法を提案する。
論文 参考訳(メタデータ) (2021-06-07T16:20:04Z) - Deep Superpixel Cut for Unsupervised Image Segmentation [0.9281671380673306]
本稿では,下記の2段階を含む画像分割の教師なし手法を提案する。
まず,スーパーピクセルワイドオートエンコーダ(SuperAE)を用いて,スムーズな画像の埋め込みと再構成を学習し,そのスムーズな画像を渡してスーパーピクセルを生成する。
次に,超画素間の深い類似度を測定し,ソフトパーティショニング問題として画像分割を定式化する,deep superpixel cut(dsc)と呼ばれる新しいクラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-10T13:07:41Z) - Implicit Integration of Superpixel Segmentation into Fully Convolutional
Networks [11.696069523681178]
スーパーピクセル方式をCNNに暗黙的に統合する方法を提案する。
提案手法では,下地層に画素を階層的にグループ化し,スーパーピクセルを生成する。
本手法は,セマンティックセグメンテーション,スーパーピクセルセグメンテーション,モノクル深度推定などのタスクで評価する。
論文 参考訳(メタデータ) (2021-03-05T02:20:26Z) - Propagate Yourself: Exploring Pixel-Level Consistency for Unsupervised
Visual Representation Learning [60.75687261314962]
我々は,高密度な特徴表現を学習するための画素レベルのプレテキストタスクを導入する。
ピクセル・ツー・プロパゲーション整合性タスクは、最先端のアプローチよりも優れた結果をもたらす。
結果は、ピクセルレベルでプリテキストタスクを定義する強力な可能性を示している。
論文 参考訳(メタデータ) (2020-11-19T18:59:45Z) - Learning RGB-D Feature Embeddings for Unseen Object Instance
Segmentation [67.88276573341734]
合成データからRGB-D特徴埋め込みを学習し,オブジェクトのインスタンスセグメンテーションを未確認する手法を提案する。
距離学習損失関数を用いて画素単位の機能埋め込みを学習する。
新たな2段階クラスタリングアルゴリズムにより,セグメンテーションの精度をさらに向上する。
論文 参考訳(メタデータ) (2020-07-30T00:23:07Z) - Superpixel Segmentation using Dynamic and Iterative Spanning Forest [0.0]
以下に、Dynamic ISF(DISF)について述べる。
他のシードベースのスーパーピクセル法と比較すると、DIFは関連する種子を見つける傾向が強い。
また、より効果的なスーパーピクセルデライン化のために、ISFフレームワークに動的アーク重み推定を導入している。
論文 参考訳(メタデータ) (2020-07-08T16:46:58Z) - ITSELF: Iterative Saliency Estimation fLexible Framework [68.8204255655161]
機密度オブジェクト検出は、画像で最も顕著なオブジェクトを推定する。
我々は,ユーザ定義の仮定をモデルに追加できる,スーパーピクセルベースのITELF(ITSELF)を提案する。
ITSELFを5つのメトリクスと6つのデータセットで2つの最先端の精度推定器と比較する。
論文 参考訳(メタデータ) (2020-06-30T16:51:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。