論文の概要: VFP: Converting Tabular Data for IIoT into Images Considering
Correlations of Attributes for Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2303.09068v1
- Date: Thu, 16 Mar 2023 04:02:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 16:43:32.496648
- Title: VFP: Converting Tabular Data for IIoT into Images Considering
Correlations of Attributes for Convolutional Neural Networks
- Title(参考訳): vfp:畳み込みニューラルネットワークにおける属性の相関を考慮したiiot用表データ変換
- Authors: Jong-Ik Park and Cheol-Ho Hong
- Abstract要約: 本稿では,VFP(Vortex Feature Positioning)という新しい変換手法を提案する。
特徴は画像の中心から渦状に位置決めされ、属性の数によって画像サイズが決定される。
- 参考スコア(独自算出の注目度): 0.548253258922555
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: For tabular data generated from IIoT devices, traditional machine learning
(ML) techniques based on the decision tree algorithm have been employed.
However, these methods have limitations in processing tabular data where real
number attributes dominate. To address this issue, DeepInsight, REFINED, and
IGTD were proposed to convert tabular data into images for utilizing
convolutional neural networks (CNNs). They gather similar features in some
specific spots of an image to make the converted image look like an actual
image. Gathering similar features contrasts with traditional ML techniques for
tabular data, which drops some highly correlated attributes to avoid
overfitting. Also, previous converting methods fixed the image size, and there
are wasted or insufficient pixels according to the number of attributes of
tabular data. Therefore, this paper proposes a new converting method, Vortex
Feature Positioning (VFP). VFP considers the correlation of features and places
similar features far away from each. Features are positioned in the vortex
shape from the center of an image, and the number of attributes determines the
image size. VFP shows better test performance than traditional ML techniques
for tabular data and previous converting methods in five datasets: Iris, Wine,
Dry Bean, Epileptic Seizure, and SECOM, which have differences in the number of
attributes.
- Abstract(参考訳): IIoTデバイスから生成された表形式のデータに対して、決定木アルゴリズムに基づく従来の機械学習(ML)技術が採用されている。
しかし、これらの手法は実数属性が支配的な表データの処理に制限がある。
この問題に対処するために、畳み込みニューラルネットワーク(cnns)を利用するために、表データから画像に変換するdeepinsight、refinement、igtdが提案されている。
画像の特定の箇所で同様の特徴を収集し、変換された画像を実際の画像のように見せる。
類似した特徴の収集は、オーバーフィッティングを避けるために非常に相関性の高い属性をドロップする、従来のグラフデータのMLテクニックとは対照的である。
また、従来の変換方式では画像サイズを固定し、表データの属性数に応じて、無駄あるいは不十分な画素が存在する。
そこで本稿では,Vortex Feature Positioning (VFP) という新しい変換手法を提案する。
VFPは、機能と類似の機能を互いに遠く離れた場所に配置する。
特徴は画像の中心から渦状に位置決めされ、属性の数によって画像サイズが決定される。
VFPは、属性の数に違いがあるIris、Wine、Dry Bean、Epileptic Seizure、SECOMの5つのデータセットで、従来のグラフデータに対するMLテクニックや、以前の変換メソッドよりも優れたテストパフォーマンスを示している。
関連論文リスト
- Image augmentation with conformal mappings for a convolutional neural
network [0.0]
畳み込みニューラルネットワーク(CNN)の正方形画像データの増大のための新しい手法を提案する。
ここでは、必要なすべてのマッピングの公式と、画像を変換するためのコードの記述方法の詳細な説明を提供しています。
論文 参考訳(メタデータ) (2022-12-10T10:19:53Z) - Learning-Based Dimensionality Reduction for Computing Compact and
Effective Local Feature Descriptors [101.62384271200169]
特徴の形でのイメージパッチの独特な表現は多くのコンピュータビジョンとロボティクスのタスクの重要な構成要素である。
マルチ層パーセプトロン(MLP)を用いて,低次元ながら高品質な記述子を抽出する。
視覚的ローカライゼーション、パッチ検証、画像マッチング、検索など、さまざまなアプリケーションについて検討する。
論文 参考訳(メタデータ) (2022-09-27T17:59:04Z) - A Dynamic Weighted Tabular Method for Convolutional Neural Networks [0.3867363075280544]
本研究では,動的重み付きタブラル法(DWTM)という新しい手法を紹介する。
本手法は,各特徴量にアソシエーションの強さに基づく重みをクラスラベルに動的に割り当てる。
6つのベンチマークデータセット上で優れたパフォーマンス(平均精度=95%)を達成する。
論文 参考訳(メタデータ) (2022-05-20T18:02:10Z) - Offline Text-Independent Writer Identification based on word level data [7.747239584541488]
本稿では,個人の手書き入力語画像に基づいて,文書の著者を識別する新しい手法を提案する。
SIFTアルゴリズムを用いて、様々な抽象化レベルにおいて複数のキーポイントを抽出する。
これらのキーポイントはトレーニングされたCNNネットワークに渡され、畳み込み層に対応する特徴マップを生成する。
論文 参考訳(メタデータ) (2022-02-21T13:32:09Z) - TransformNet: Self-supervised representation learning through predicting
geometric transformations [0.8098097078441623]
入力データに適用された幾何変換の認識のための教師なし意味特徴学習手法について述べる。
我々のアプローチの基本概念は、画像中の物体を知らない人が、それらに適用された幾何学的変換を定量的に予測できないことである。
論文 参考訳(メタデータ) (2022-02-08T22:41:01Z) - Feature transforms for image data augmentation [74.12025519234153]
画像分類において、多くの拡張アプローチは単純な画像操作アルゴリズムを利用する。
本研究では,14種類の拡張アプローチを組み合わせて生成した画像を追加することで,データレベルでのアンサンブルを構築する。
事前トレーニングされたResNet50ネットワークは、各拡張メソッドから派生した画像を含むトレーニングセットに基づいて微調整される。
論文 参考訳(メタデータ) (2022-01-24T14:12:29Z) - Image Inpainting with Edge-guided Learnable Bidirectional Attention Maps [85.67745220834718]
不規則な穴の画像インペインティングを改善するためのエッジガイド学習可能な双方向注意マップ(Edge-LBAM)を紹介します。
当社のEdge-LBAMメソッドには、予測エッジによる構造認識マスク更新を含むデュアルプロシージャが含まれています。
広範な実験により,エッジlbamはコヒーレントな画像構造を生成し,色差やぼやけを防止できることがわかった。
論文 参考訳(メタデータ) (2021-04-25T07:25:16Z) - FeatMatch: Feature-Based Augmentation for Semi-Supervised Learning [64.32306537419498]
本稿では,複雑な変換を多様に生成する特徴量に基づく改良・拡張手法を提案する。
これらの変換は、クラスタリングを通じて抽出したクラス内およびクラス間の両方の情報も利用します。
提案手法は,大規模データセットにスケールアップしながら,より小さなデータセットに対して,現在の最先端技術に匹敵するものであることを実証する。
論文 参考訳(メタデータ) (2020-07-16T17:55:31Z) - Steering Self-Supervised Feature Learning Beyond Local Pixel Statistics [60.92229707497999]
画像の特定の変換の識別に基づく自己教師型特徴学習の新しい原理を提案する。
実験により,LCI,画像ワープ,回転などの変換を識別する学習が,技術一般化能力の状態を特徴付けることを示した。
論文 参考訳(メタデータ) (2020-04-05T22:09:08Z) - Expressing Objects just like Words: Recurrent Visual Embedding for
Image-Text Matching [102.62343739435289]
既存の画像テキストマッチングアプローチは、テキストと画像の各独立オブジェクト間の親和性をキャプチャして集約することにより、画像テキストペアの類似性を推測する。
本稿では,リカレントニューラルネットワーク(RNN)を用いて画像と文を対称に処理するDual Path Recurrent Neural Network (DP-RNN)を提案する。
我々のモデルはFlickr30Kデータセットの最先端性能とMS-COCOデータセットの競合性能を達成する。
論文 参考訳(メタデータ) (2020-02-20T00:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。