論文の概要: VFP: Converting Tabular Data for IIoT into Images Considering
Correlations of Attributes for Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2303.09068v1
- Date: Thu, 16 Mar 2023 04:02:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 16:43:32.496648
- Title: VFP: Converting Tabular Data for IIoT into Images Considering
Correlations of Attributes for Convolutional Neural Networks
- Title(参考訳): vfp:畳み込みニューラルネットワークにおける属性の相関を考慮したiiot用表データ変換
- Authors: Jong-Ik Park and Cheol-Ho Hong
- Abstract要約: 本稿では,VFP(Vortex Feature Positioning)という新しい変換手法を提案する。
特徴は画像の中心から渦状に位置決めされ、属性の数によって画像サイズが決定される。
- 参考スコア(独自算出の注目度): 0.548253258922555
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: For tabular data generated from IIoT devices, traditional machine learning
(ML) techniques based on the decision tree algorithm have been employed.
However, these methods have limitations in processing tabular data where real
number attributes dominate. To address this issue, DeepInsight, REFINED, and
IGTD were proposed to convert tabular data into images for utilizing
convolutional neural networks (CNNs). They gather similar features in some
specific spots of an image to make the converted image look like an actual
image. Gathering similar features contrasts with traditional ML techniques for
tabular data, which drops some highly correlated attributes to avoid
overfitting. Also, previous converting methods fixed the image size, and there
are wasted or insufficient pixels according to the number of attributes of
tabular data. Therefore, this paper proposes a new converting method, Vortex
Feature Positioning (VFP). VFP considers the correlation of features and places
similar features far away from each. Features are positioned in the vortex
shape from the center of an image, and the number of attributes determines the
image size. VFP shows better test performance than traditional ML techniques
for tabular data and previous converting methods in five datasets: Iris, Wine,
Dry Bean, Epileptic Seizure, and SECOM, which have differences in the number of
attributes.
- Abstract(参考訳): IIoTデバイスから生成された表形式のデータに対して、決定木アルゴリズムに基づく従来の機械学習(ML)技術が採用されている。
しかし、これらの手法は実数属性が支配的な表データの処理に制限がある。
この問題に対処するために、畳み込みニューラルネットワーク(cnns)を利用するために、表データから画像に変換するdeepinsight、refinement、igtdが提案されている。
画像の特定の箇所で同様の特徴を収集し、変換された画像を実際の画像のように見せる。
類似した特徴の収集は、オーバーフィッティングを避けるために非常に相関性の高い属性をドロップする、従来のグラフデータのMLテクニックとは対照的である。
また、従来の変換方式では画像サイズを固定し、表データの属性数に応じて、無駄あるいは不十分な画素が存在する。
そこで本稿では,Vortex Feature Positioning (VFP) という新しい変換手法を提案する。
VFPは、機能と類似の機能を互いに遠く離れた場所に配置する。
特徴は画像の中心から渦状に位置決めされ、属性の数によって画像サイズが決定される。
VFPは、属性の数に違いがあるIris、Wine、Dry Bean、Epileptic Seizure、SECOMの5つのデータセットで、従来のグラフデータに対するMLテクニックや、以前の変換メソッドよりも優れたテストパフォーマンスを示している。
関連論文リスト
- Image Harmonization using Robust Restricted CDF Matching [0.0]
曲線フィッティングに基づく累積分布関数(CDF)マッチングを用いた画像調和方式を提案する。
画像強度の変換は、他の既知のヒストグラムマッチングアルゴリズムと比較して、非線形であるが、まだ滑らかで弾力的である」。
我々はMRI画像の手法を実証するが、他の種類の画像データに適用できるほど汎用的である。
論文 参考訳(メタデータ) (2024-11-20T12:12:47Z) - Parameter-Inverted Image Pyramid Networks [49.35689698870247]
Inverted Image Pyramid Networks (PIIP) と呼ばれる新しいネットワークアーキテクチャを提案する。
私たちの中核となる考え方は、パラメータサイズの異なるモデルを使用して、画像ピラミッドの解像度の異なるレベルを処理することです。
PIIPは、オブジェクト検出、セグメンテーション、画像分類などのタスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-06-06T17:59:10Z) - Parallel Cross Strip Attention Network for Single Image Dehazing [15.246376325081973]
単一画像デハジングは、ぼんやりとしたイメージを復元し、透明で高品質なビジュアルを作り出すことを目的としている。
伝統的な畳み込みモデルは、受容野のサイズが限られているため、長距離依存に苦しむ。
マルチスケール戦略を用いた並列Stripe Cross Attention (PCSA) に基づく新しいデハージングネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-09T14:50:07Z) - Differentiable Registration of Images and LiDAR Point Clouds with
VoxelPoint-to-Pixel Matching [58.10418136917358]
カメラからの2D画像とLiDARからの3Dポイントクラウドの間のクロスモダリティ登録は、コンピュータビジョンとロボットトレーニングにおいて重要な課題である。
ニューラルネットワークで学習した点パターンと画素パターンのマッチングによる2次元3次元対応の推定
我々は、異なる潜在画素空間を介して3次元特徴を表現するために、構造化されたモダリティマッチングソルバを学習する。
論文 参考訳(メタデータ) (2023-12-07T05:46:10Z) - FocDepthFormer: Transformer with latent LSTM for Depth Estimation from Focal Stack [11.433602615992516]
本稿では,トランスフォーマーをLSTMモジュールとCNNデコーダと統合した新しいトランスフォーマーネットワークFocDepthFormerを提案する。
LSTMを組み込むことで、FocDepthFormerは大規模な単分子RGB深さ推定データセットで事前トレーニングすることができる。
我々のモデルは、複数の評価指標で最先端のアプローチより優れています。
論文 参考訳(メタデータ) (2023-10-17T11:53:32Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Deep Neural Networks Fused with Textures for Image Classification [20.58839604333332]
きめ細かい画像分類はコンピュータビジョンにおいて難しい課題である。
グローバルテクスチャと局所パッチ情報を組み合わせたFGICの融合手法を提案する。
提案手法は,有意なマージンを有する既存手法よりも高い分類精度を達成できた。
論文 参考訳(メタデータ) (2023-08-03T15:21:08Z) - Parallax-Tolerant Unsupervised Deep Image Stitching [57.76737888499145]
本稿では,パララックス耐性の非教師あり深層画像縫合技術であるUDIS++を提案する。
まず,グローバルなホモグラフィから局所的な薄板スプライン運動への画像登録をモデル化するための,頑健で柔軟なワープを提案する。
本研究では, 縫合された画像をシームレスに合成し, シーム駆動合成マスクの教師なし学習を行うことを提案する。
論文 参考訳(メタデータ) (2023-02-16T10:40:55Z) - Image Inpainting with Edge-guided Learnable Bidirectional Attention Maps [85.67745220834718]
不規則な穴の画像インペインティングを改善するためのエッジガイド学習可能な双方向注意マップ(Edge-LBAM)を紹介します。
当社のEdge-LBAMメソッドには、予測エッジによる構造認識マスク更新を含むデュアルプロシージャが含まれています。
広範な実験により,エッジlbamはコヒーレントな画像構造を生成し,色差やぼやけを防止できることがわかった。
論文 参考訳(メタデータ) (2021-04-25T07:25:16Z) - FeatMatch: Feature-Based Augmentation for Semi-Supervised Learning [64.32306537419498]
本稿では,複雑な変換を多様に生成する特徴量に基づく改良・拡張手法を提案する。
これらの変換は、クラスタリングを通じて抽出したクラス内およびクラス間の両方の情報も利用します。
提案手法は,大規模データセットにスケールアップしながら,より小さなデータセットに対して,現在の最先端技術に匹敵するものであることを実証する。
論文 参考訳(メタデータ) (2020-07-16T17:55:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。