論文の概要: Modal features for image texture classification
- arxiv url: http://arxiv.org/abs/2005.01928v1
- Date: Tue, 5 May 2020 03:13:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 14:37:35.253452
- Title: Modal features for image texture classification
- Title(参考訳): 画像テクスチャ分類のためのモーダル特徴
- Authors: Thomas Lacombe, Hugues Favreliere, Maurice Pillet
- Abstract要約: 離散モード分解(DMD)に基づく特徴抽出手法を提案する。
DMD手法は,抽出時間が少なく,最先端技術に匹敵する優れた分類性能が得られることを示す。
- 参考スコア(独自算出の注目度): 1.3750624267664155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature extraction is a key step in image processing for pattern recognition
and machine learning processes. Its purpose lies in reducing the dimensionality
of the input data through the computing of features which accurately describe
the original information. In this article, a new feature extraction method
based on Discrete Modal Decomposition (DMD) is introduced, to extend the group
of space and frequency based features. These new features are called modal
features. Initially aiming to decompose a signal into a modal basis built from
a vibration mechanics problem, the DMD projection is applied to images in order
to extract modal features with two approaches. The first one, called full scale
DMD, consists in exploiting directly the decomposition resulting coordinates as
features. The second one, called filtering DMD, consists in using the DMD modes
as filters to obtain features through a local transformation process.
Experiments are performed on image texture classification tasks including
several widely used data bases, compared to several classic feature extraction
methods. We show that the DMD approach achieves good classification
performances, comparable to the state of the art techniques, with a lower
extraction time.
- Abstract(参考訳): 特徴抽出は、パターン認識と機械学習プロセスのための画像処理における重要なステップである。
その目的は、元の情報を正確に記述する特徴の計算を通じて入力データの次元を減少させることである。
本稿では,離散モード分解(DMD)に基づく特徴抽出手法を導入し,空間的特徴群と周波数的特徴群を拡張した。
これらの新機能はModal featuresと呼ばれる。
当初、振動力学問題から構築されたモーダルベースに信号を分解することを目的として、DMDプロジェクションを画像に適用し、2つのアプローチでモーダル特徴を抽出する。
最初のdmdは完全なdmdと呼ばれ、分解された座標を直接特徴として利用する。
2つ目のDMDは、DMDモードをフィルタとして使用して、局所的な変換プロセスを通じて特徴を得る。
いくつかの古典的特徴抽出法と比較して,画像テクスチャ分類タスクにおいて,複数の広く使用されているデータベースを含む実験を行う。
dmdアプローチは,より低い抽出時間で,最先端の技術技術に匹敵する優れた分類性能を達成できることを示す。
関連論文リスト
- A Noise and Edge extraction-based dual-branch method for Shallowfake and Deepfake Localization [15.647035299476894]
従来のCNN機能と手動で設計した特徴雑音を統合したデュアルブランチモデルを開発した。
このモデルは比較において優れており、既存の最先端モデル(SoTA)よりも容易に優れている。
論文 参考訳(メタデータ) (2024-09-02T02:18:34Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Self-Supervised Neuron Segmentation with Multi-Agent Reinforcement
Learning [53.00683059396803]
マスク画像モデル(MIM)は,マスク画像から元の情報を復元する簡便さと有効性から広く利用されている。
本稿では、強化学習(RL)を利用して最適な画像マスキング比とマスキング戦略を自動検索する決定に基づくMIMを提案する。
本手法は,ニューロン分節の課題において,代替自己監督法に対して有意な優位性を有する。
論文 参考訳(メタデータ) (2023-10-06T10:40:46Z) - Improving Pixel-based MIM by Reducing Wasted Modeling Capability [77.99468514275185]
浅い層から低レベルの特徴を明示的に利用して画素再構成を支援する手法を提案する。
私たちの知る限りでは、等方的アーキテクチャのためのマルチレベル特徴融合を体系的に研究するのは、私たちは初めてです。
提案手法は, 微調整では1.2%, 線形探索では2.8%, セマンティックセグメンテーションでは2.6%など, 大幅な性能向上をもたらす。
論文 参考訳(メタデータ) (2023-08-01T03:44:56Z) - Decoupled Diffusion Models: Simultaneous Image to Zero and Zero to Noise [53.04220377034574]
10機能未満の高画質(未条件)の画像生成のためのデカップリング拡散モデル(DDM)を提案する。
我々は,1) 画像から0遷移までをモデル化した解析的遷移確率に基づいて, 学習目標と(2) サンプリング式を逆時間に導出する。
1)無条件画像生成, CIFAR-10, CelebA-HQ-256, 2)超解像, 塩分検出, エッジ検出, 画像入力などの下流処理, テキスト処理, テキスト処理, テキスト処理, テキスト処理, 画像処理, 画像処理などと比較して, 非常に競争力のある性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T18:08:00Z) - A Model-data-driven Network Embedding Multidimensional Features for
Tomographic SAR Imaging [5.489791364472879]
多次元特徴量に基づくトモSARイメージングを実現するためのモデルデータ駆動型ネットワークを提案する。
画像シーンの多次元的特徴を効果的に向上するために、2つの2次元処理モジュール(畳み込みエンコーダ-デコーダ構造)を追加します。
従来のCS-based FISTA法とDL-based gamma-Net法と比較して,提案手法は良好な画像精度を有しつつ,完全性を向上させる。
論文 参考訳(メタデータ) (2022-11-28T02:01:43Z) - Hyperspectral Remote Sensing Image Classification Based on Multi-scale
Cross Graphic Convolution [20.42582692786715]
マルチスケール機能マイニング学習アルゴリズム(MGRNet)を提案する。
MGRNetは、主成分分析を用いて、元のハイパースペクトル画像(HSI)の次元を減少させ、その意味情報の99.99%を保持する。
3つの一般的なハイパースペクトルデータセットの実験により,本論文で提案したMGRNetアルゴリズムは,認識精度において従来の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-28T15:28:09Z) - M2TR: Multi-modal Multi-scale Transformers for Deepfake Detection [74.19291916812921]
Deepfake技術によって生成された鍛造画像は、デジタル情報の信頼性に深刻な脅威をもたらします。
本稿では,Deepfake検出のための微妙な操作アーチファクトを異なるスケールで捉えることを目的とする。
最先端の顔スワッピングと顔の再現方法によって生成された4000のDeepFakeビデオで構成される高品質のDeepFakeデータセットSR-DFを紹介します。
論文 参考訳(メタデータ) (2021-04-20T05:43:44Z) - Discrete Cosine Transform Network for Guided Depth Map Super-Resolution [19.86463937632802]
目標は、高解像度(HR)RGB画像を使用してエッジとオブジェクトの輪郭に関する余分な情報を提供し、低解像度の深度マップをHR画像にアップサンプリングできるようにすることです。
本稿では,4つのコンポーネントから構成されるDCTNet(Digital Discrete Cosine Transform Network)を提案する。
本手法は,最新手法を越しに,正確かつ人事深度マップを生成できることを示した。
論文 参考訳(メタデータ) (2021-04-14T17:01:03Z) - Human Action Recognition Based on Multi-scale Feature Maps from Depth
Video Sequences [12.30399970340689]
深度ビデオシーケンスから人間の行動を認識するために,マルチスケールなモーション情報に着目した新しいフレームワークを提案する。
動作のマルチスケールな静的表現を生成するために,テンプレートとして深度動き画像(DMI)を用いる。
LP-DMI-HOGと呼ばれる多粒性記述子を抽出し、より識別的な特徴を提供する。
論文 参考訳(メタデータ) (2021-01-19T13:46:42Z) - Adaptive Context-Aware Multi-Modal Network for Depth Completion [107.15344488719322]
我々は,観測された空間コンテキストを捉えるために,グラフ伝搬を採用することを提案する。
次に、注意機構を伝搬に適用し、ネットワークが文脈情報を適応的にモデル化することを奨励する。
最後に、抽出したマルチモーダル特徴を効果的に活用するための対称ゲート融合戦略を導入する。
本稿では,Adaptive Context-Aware Multi-Modal Network (ACMNet) を2つのベンチマークで評価した。
論文 参考訳(メタデータ) (2020-08-25T06:00:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。