論文の概要: Salient Object Detection by LTP Texture Characterization on Opposing
Color Pairs under SLICO Superpixel Constraint
- arxiv url: http://arxiv.org/abs/2201.00439v1
- Date: Mon, 3 Jan 2022 00:03:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-04 19:53:44.986109
- Title: Salient Object Detection by LTP Texture Characterization on Opposing
Color Pairs under SLICO Superpixel Constraint
- Title(参考訳): SLICO超画素制約下での対色色対のLTPテクスチャ特性による局所物体検出
- Authors: Didier Ndayikengurukiye and Max Mignotte
- Abstract要約: 本稿では,自然画像に対するロバストなサリエンシマップを生成するシンプルなモデルを用いて,新しい戦略を提案する。
この戦略は、局所的なテクスチャパターンに色情報を統合することで、色のマイクロテクスチャを特徴付ける。
我々のモデルは単純かつ効率的であり、いくつかの最先端モデルより優れている。
- 参考スコア(独自算出の注目度): 10.228984414156931
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The effortless detection of salient objects by humans has been the subject of
research in several fields, including computer vision as it has many
applications. However, salient object detection remains a challenge for many
computer models dealing with color and textured images. Herein, we propose a
novel and efficient strategy, through a simple model, almost without internal
parameters, which generates a robust saliency map for a natural image. This
strategy consists of integrating color information into local textural patterns
to characterize a color micro-texture. Most models in the literature that use
the color and texture features treat them separately. In our case, it is the
simple, yet powerful LTP (Local Ternary Patterns) texture descriptor applied to
opposing color pairs of a color space that allows us to achieve this end. Each
color micro-texture is represented by vector whose components are from a
superpixel obtained by SLICO (Simple Linear Iterative Clustering with zero
parameter) algorithm which is simple, fast and exhibits state-of-the-art
boundary adherence. The degree of dissimilarity between each pair of color
micro-texture is computed by the FastMap method, a fast version of MDS
(Multi-dimensional Scaling), that considers the color micro-textures
non-linearity while preserving their distances. These degrees of dissimilarity
give us an intermediate saliency map for each RGB, HSL, LUV and CMY color
spaces. The final saliency map is their combination to take advantage of the
strength of each of them. The MAE (Mean Absolute Error) and F$_{\beta}$
measures of our saliency maps, on the complex ECSSD dataset show that our model
is both simple and efficient, outperforming several state-of-the-art models.
- Abstract(参考訳): 人間によるサルエント物体の無力な検出は、多くの応用があるため、コンピュータビジョンを含むいくつかの分野の研究の対象となっている。
しかし、色やテクスチャ画像を扱う多くのコンピュータモデルにとって、サルエント物体検出は依然として課題である。
そこで本研究では,自然画像に対してロバストなサリエンシーマップを生成する,内部パラメータをほとんど含まない単純なモデルによる新しい効率的な戦略を提案する。
この戦略は、色情報を局所的なテクスチャパターンに統合し、色のマイクロテクスチャを特徴付ける。
色とテクスチャの特徴を使用する文学のほとんどのモデルは、それらを別々に扱う。
我々の場合、色空間の反対色対に適用されるシンプルで強力なLTPテクスチャ記述子であり、この目的を達成することができる。
各色マイクロテクスチャは、単純で高速で最先端のバウンダリ接着を示すslico(simple linear iterative clustering with zero parameter)アルゴリズムによって得られたスーパーピクセルからコンポーネントが生成されるベクトルによって表現される。
MDS(Multi-dimensional Scaling)の高速バージョンであるFastMap法では,各色のマイクロテクスチャ間の相違度を計算し,その距離を保ちながら色のマイクロテクスチャの非線形性を考慮した。
これらの相似性の次数は、RGB, HSL, LUV, CMYの各色空間に対する中間正則写像を与える。
最後のサリエンシマップは、それぞれの強さを利用するための組み合わせである。
MAE(Mean Absolute Error)とF$_{\beta}は、複雑なECSSDデータセット上で、我々のモデルは単純かつ効率的であり、最先端のモデルよりも優れていることを示している。
関連論文リスト
- Large-scale and Efficient Texture Mapping Algorithm via Loopy Belief
Propagation [4.742825811314168]
テクスチャマッピングアルゴリズムは、これらのビューからメッシュモデルへのビュー、ヒューズ、およびマップテクスチャを効率的に選択できなければならない。
既存のアプローチでは、画像の数を1つのビューに制限するか、グローバルな推論を単純化して局所的な色の一貫性を達成している。
本稿では,顔ごとのテクスチャの複数のビューを利用できる新しい,効率的なテクスチャマッピングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-08T15:11:28Z) - Multiscale Representation for Real-Time Anti-Aliasing Neural Rendering [84.37776381343662]
Mip-NeRFは、スケール情報をエンコードする円錐フラストラムとしてマルチスケール表現を提案する。
我々は,リアルタイムなアンチエイリアスレンダリングのためのマルチスケールな明示的表現であるmip voxel grids (Mip-VoG)を提案する。
私たちのアプローチは、マルチスケールのトレーニングとリアルタイムのアンチエイリアスレンダリングを同時に提供する最初の方法です。
論文 参考訳(メタデータ) (2023-04-20T04:05:22Z) - Spherical Space Feature Decomposition for Guided Depth Map
Super-Resolution [123.04455334124188]
誘導深度マップ超解像(GDSR)は、低解像度(LR)深度マップに高解像度(HR)RGB画像を含む追加情報を加えることを目的としている。
本稿では,この問題を解決するために,Spherical Space Feature Decomposition Network (SSDNet)を提案する。
提案手法は,4つのテストデータセットの最先端結果と実世界のシーンへの一般化を実現する。
論文 参考訳(メタデータ) (2023-03-15T21:22:21Z) - SPSN: Superpixel Prototype Sampling Network for RGB-D Salient Object
Detection [5.2134203335146925]
近年,RGB-D Salient Object Detection (SOD) が注目されている。
深層学習手法の進歩にもかかわらず、RGB-D SODは、RGB画像と深度マップと低品質深度マップとの間に大きな領域ギャップがあるため、依然として困難である。
本稿では,この問題を解決するために,新しいスーパーピクセルプロトタイプサンプリングネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-07-16T10:43:14Z) - Multiscale Analysis for Improving Texture Classification [62.226224120400026]
本稿では,テクスチャの異なる空間周波数帯域を別々に扱うために,ガウス・ラプラシアピラミッドを用いる。
バイオインスパイアされたテクスチャ記述子,情報理論測度,灰色レベルの共起行列特徴,ハリリック統計特徴から抽出した特徴を特徴ベクトルに集約した。
論文 参考訳(メタデータ) (2022-04-21T01:32:22Z) - Scale Invariant Semantic Segmentation with RGB-D Fusion [12.650574326251023]
RGB-D画像を用いたスケール不変セマンティックセグメンテーションのためのニューラルネットワークアーキテクチャを提案する。
画素単位のセマンティックセグメンテーションのためのRGBデータに深度情報を組み込んで,屋外シーンにおける異なるスケールオブジェクトに対処する。
我々のモデルはコンパクトであり、他のRGBモデルにも容易に適用できる。
論文 参考訳(メタデータ) (2022-04-10T12:54:27Z) - RGB-D Saliency Detection via Cascaded Mutual Information Minimization [122.8879596830581]
既存のRGB-Dサリエンシ検出モデルは、RGBと深さを効果的にマルチモーダル学習を実現するために明示的に奨励するものではない。
本稿では,RGB画像と深度データ間のマルチモーダル情報を「明示的」にモデル化するために,相互情報最小化による新しい多段階学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-15T12:31:27Z) - Deep Texture-Aware Features for Camouflaged Object Detection [69.84122372541506]
本稿では, テクスチャ認識モジュールを定式化し, 深層畳み込みニューラルネットワークにおけるテクスチャ認識の特徴を学習する。
我々は,キャモフラージュされた物体検出のためのベンチマークデータセット上で,定性的かつ定量的にネットワークを評価した。
論文 参考訳(メタデータ) (2021-02-05T04:38:32Z) - Consistent Mesh Colors for Multi-View Reconstructed 3D Scenes [13.531166759820854]
カラーキャリブレーションなしで一貫したテクスチャマップを作成するためには,複数のビューを集約する手法が不可欠であることがわかった。
ビュー面とフェースビューの相互相関から事前に色を計算し、最適なパーフェースカラーを特定します。
論文 参考訳(メタデータ) (2021-01-26T11:59:23Z) - Color-complexity enabled exhaustive color-dots identification and
spatial patterns testing in images [0.6299766708197881]
我々は,RGB と HSV という3つのカラーコーディネート間の高関連性に基づく新しい色識別アルゴリズムを開発した。
精密農業におけるドローンによる化学噴霧を模倣した画像に,本研究の展開を例証する。
論文 参考訳(メタデータ) (2020-07-28T21:06:12Z) - Instance-aware Image Colorization [51.12040118366072]
本稿では,インスタンス認識のカラー化を実現する手法を提案する。
我々のネットワークアーキテクチャは、市販のオブジェクト検出器を利用して、収穫されたオブジェクト画像を取得する。
類似したネットワークを用いて、フルイメージの特徴を抽出し、融合モジュールを適用して最終色を予測する。
論文 参考訳(メタデータ) (2020-05-21T17:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。