論文の概要: E-PixelHop: An Enhanced PixelHop Method for Object Classification
- arxiv url: http://arxiv.org/abs/2107.02966v1
- Date: Wed, 7 Jul 2021 01:22:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-08 14:08:14.385090
- Title: E-PixelHop: An Enhanced PixelHop Method for Object Classification
- Title(参考訳): E-PixelHop: オブジェクト分類のための強化されたPixelHopメソッド
- Authors: Yijing Yang, Vasileios Magoulianitis and C.-C. Jay Kuo
- Abstract要約: 本研究では,E-PixelHopと呼ばれるオブジェクト分類のための拡張されたソリューションを提案する。
E-PixelHopは以下のステップで構成されている。
様々な受容場を持つホップごとにピクセルレベルの分類を行う。
各ホップからの画素レベル決定と各カラーサブスペースからの画素レベル決定とを融合して画像レベル決定を行う。
- 参考スコア(独自算出の注目度): 29.062926577155885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Based on PixelHop and PixelHop++, which are recently developed using the
successive subspace learning (SSL) framework, we propose an enhanced solution
for object classification, called E-PixelHop, in this work. E-PixelHop consists
of the following steps. First, to decouple the color channels for a color
image, we apply principle component analysis and project RGB three color
channels onto two principle subspaces which are processed separately for
classification. Second, to address the importance of multi-scale features, we
conduct pixel-level classification at each hop with various receptive fields.
Third, to further improve pixel-level classification accuracy, we develop a
supervised label smoothing (SLS) scheme to ensure prediction consistency.
Forth, pixel-level decisions from each hop and from each color subspace are
fused together for image-level decision. Fifth, to resolve confusing classes
for further performance boosting, we formulate E-PixelHop as a two-stage
pipeline. In the first stage, multi-class classification is performed to get a
soft decision for each class, where the top 2 classes with the highest
probabilities are called confusing classes. Then,we conduct a binary
classification in the second stage. The main contributions lie in Steps 1, 3
and 5.We use the classification of the CIFAR-10 dataset as an example to
demonstrate the effectiveness of the above-mentioned key components of
E-PixelHop.
- Abstract(参考訳): 本研究では, 逐次サブスペース学習(SSL)フレームワークを用いて開発されているPixelHopとPixelHop++に基づいて, E-PixelHopと呼ばれるオブジェクト分類のための拡張ソリューションを提案する。
E-PixelHopは以下のステップで構成されている。
まず、カラー画像のカラーチャネルを分離するために、2つの基本部分空間に原則成分分析とRGB3色チャネルを投影し、分類のために別々に処理する。
第2に,マルチスケール機能の重要性に対処するため,各ホップの画素レベル分類を様々な受容場を用いて行う。
第3に,画素レベルの分類精度をさらに向上するため,予測一貫性を確保するための教師付きラベル平滑化(sls)スキームを開発した。
各ホップおよび各カラーサブスペースからの画素レベルの決定は、画像レベルの決定のために融合される。
第5に、さらなるパフォーマンス向上のために混乱したクラスを解決するために、E-PixelHopを2段階パイプラインとして定式化する。
第一段階では、最も高い確率を持つ上位2クラスを混乱クラスと呼ぶ各クラスに対してソフトな決定を下すために、マルチクラス分類が行われる。
次に,第2段階において二項分類を行う。
主な貢献はステップ1、3、5CIFAR-10データセットの分類を例に挙げて、前述のE-PixelHopのキーコンポーネントの有効性を実証する。
関連論文リスト
- Dual-stage Hyperspectral Image Classification Model with Spectral Supertoken [15.426635239291729]
スーパーピクセルの概念に触発されたDual-stage Spectral Supertoken(DSTC)を紹介する。
DSTCはスペクトル微分に基づく画素クラスタリングを用いて、類似のスペクトル特性を持つグループ画素をスペクトルスーパートーケンに分類する。
適応的に重みを異なるカテゴリに割り当てるクラスプロポーションベースのソフトラベルも提案する。
論文 参考訳(メタデータ) (2024-07-10T01:58:30Z) - Differentiable Registration of Images and LiDAR Point Clouds with
VoxelPoint-to-Pixel Matching [58.10418136917358]
カメラからの2D画像とLiDARからの3Dポイントクラウドの間のクロスモダリティ登録は、コンピュータビジョンとロボットトレーニングにおいて重要な課題である。
ニューラルネットワークで学習した点パターンと画素パターンのマッチングによる2次元3次元対応の推定
我々は、異なる潜在画素空間を介して3次元特徴を表現するために、構造化されたモダリティマッチングソルバを学習する。
論文 参考訳(メタデータ) (2023-12-07T05:46:10Z) - Information-guided pixel augmentation for pixel-wise contrastive
learning [22.00687816406677]
ピクセルワイドコントラスト学習は、医学的ランドマーク検出のようなピクセルワイドなタスクに役立つ。
そこで本研究では,教師なし画素単位のコントラスト学習を改善するために,画素粒度を有する画素増倍法を提案する。
論文 参考訳(メタデータ) (2022-11-14T05:12:23Z) - SePiCo: Semantic-Guided Pixel Contrast for Domain Adaptive Semantic
Segmentation [52.62441404064957]
ドメイン適応セマンティックセグメンテーションは、ラベル付きソースドメインでトレーニングされたモデルを利用することで、ラベル付きターゲットドメイン上で満足のいく密度の予測を試みる。
多くの手法は、ノイズの多い擬似ラベルを緩和する傾向があるが、類似のセマンティックな概念を持つクロスドメインピクセル間の固有の接続を無視する。
本稿では,個々の画素のセマンティックな概念を強調する一段階適応フレームワークSePiCoを提案する。
論文 参考訳(メタデータ) (2022-04-19T11:16:29Z) - Multi-level Second-order Few-shot Learning [111.0648869396828]
教師付きまたは教師なしの少数ショット画像分類と少数ショット動作認識のためのマルチレベル2次数列学習ネットワーク(MlSo)を提案する。
我々は、パワーノーマライズされた二階学習者ストリームと、複数のレベルの視覚的抽象化を表現する機能を組み合わせた、いわゆる2階学習者ストリームを活用している。
我々は,Omniglot, mini-ImageNet, tiered-ImageNet, Open MIC, CUB Birds, Stanford Dogs, Cars, HMDB51, UCF101, mini-MITなどのアクション認識データセットなどの標準データセットに対して,優れた結果を示す。
論文 参考訳(メタデータ) (2022-01-15T19:49:00Z) - Saliency Enhancement using Superpixel Similarity [77.34726150561087]
Saliency Object Detection (SOD) は画像解析にいくつかの応用がある。
深層学習に基づくSOD法は最も効果的であるが、類似した色を持つ前景の部品を見逃すことがある。
スーパーピクセル類似性(SESS)に対するtextitSaliency Enhancement というポストプロセッシング手法を導入する。
我々は,SESSが5つの画像データセット上での3つのディープラーニングに基づくSOD手法の結果を連続的に,かつ著しく改善できることを実証した。
論文 参考訳(メタデータ) (2021-12-01T17:22:54Z) - Isometric Propagation Network for Generalized Zero-shot Learning [72.02404519815663]
一般的な戦略は、クラス属性の意味空間と、見たクラスとそのデータに基づいて画像の視覚空間とのマッピングを学ぶことである。
本稿では,各空間内のクラス間の関係を強化し,2つの空間におけるクラス依存性を整合させるIsometric propagation Network (IPN)を提案する。
IPNは3つの人気のあるゼロショット学習ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-02-03T12:45:38Z) - Learning Category- and Instance-Aware Pixel Embedding for Fast Panoptic
Segmentation [47.26296379603003]
パノプティックセグメンテーション(英: Panoptic segmentation、PS)は、複雑なシーン理解タスクである。
PSの結果は、検出されたインスタンスやモノのクラスに各ピクセルを割り当てることによって、単純に導き出される。
提案手法は,高速な推論速度を示すだけでなく,二段法に匹敵する性能を実現する最初の一段法でもある。
論文 参考訳(メタデータ) (2020-09-28T14:07:50Z) - PixelHop++: A Small Successive-Subspace-Learning-Based (SSL-based) Model
for Image Classification [30.49387075658641]
改良されたPixelHopメソッドを提案し、それをPixelHop++と呼ぶ。
PixelHop++では、モデルサイズと分類性能のフレキシブルなトレードオフを取り除き、粒度の学習モデルサイズを制御することができる。
論文 参考訳(メタデータ) (2020-02-08T11:08:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。