論文の概要: Vortex Feature Positioning: Bridging Tabular IIoT Data and Image-Based Deep Learning
- arxiv url: http://arxiv.org/abs/2303.09068v2
- Date: Thu, 13 Jun 2024 09:00:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-15 02:38:50.655121
- Title: Vortex Feature Positioning: Bridging Tabular IIoT Data and Image-Based Deep Learning
- Title(参考訳): Vortex Feature Positioning: タブラルIIoTデータと画像に基づくディープラーニングのブリッジ
- Authors: Jong-Ik Park, Sihoon Seong, JunKyu Lee, Cheol-Ho Hong,
- Abstract要約: 本稿では,Vortex Feature Positioning (VFP)を導入し,その相関に基づいて特徴を配置し,特徴量によって決定される画像サイズとともに,画像中心から渦パターンに類似の特徴を分散させる。
VFPは、さまざまな実数値属性を持つ7つのデータセットにわたるテストにおいて、従来の機械学習手法や既存の変換テクニックよりも優れています。
- 参考スコア(独自算出の注目度): 2.1599200142392743
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Tabular data from IIoT devices are typically analyzed using decision tree-based machine learning techniques, which struggle with high-dimensional and numeric data. To overcome these limitations, techniques converting tabular data into images have been developed, leveraging the strengths of image-based deep learning approaches such as Convolutional Neural Networks. These methods cluster similar features into distinct image areas with fixed sizes, regardless of the number of features, resembling actual photographs. However, this increases the possibility of overfitting, as similar features, when selected carefully in a tabular format, are often discarded to prevent this issue. Additionally, fixed image sizes can lead to wasted pixels with fewer features, resulting in computational inefficiency. We introduce Vortex Feature Positioning (VFP) to address these issues. VFP arranges features based on their correlation, spacing similar ones in a vortex pattern from the image center, with the image size determined by the attribute count. VFP outperforms traditional machine learning methods and existing conversion techniques in tests across seven datasets with varying real-valued attributes.
- Abstract(参考訳): IIoTデバイスのタブラルデータは、一般的に、高次元および数値データと競合する決定木ベースの機械学習技術を用いて分析される。
これらの制限を克服するため、畳み込みニューラルネットワークのような画像に基づくディープラーニングアプローチの強みを活用して、表型データを画像に変換する技術が開発されている。
これらの手法は類似した特徴を、実際の写真に類似した特徴の数にかかわらず、一定の大きさの異なる画像領域にクラスタリングする。
しかし、このような機能は表形式で慎重に選択されると、この問題を防ぐためにしばしば破棄されるため、オーバーフィッティングの可能性が高まる。
さらに、固定画像サイズは、少ない特徴を持つ無駄なピクセルにつながり、計算の効率が低下する。
これらの問題に対処するためにVFP(Vortex Feature Positioning)を導入する。
VFPは、それらの相関に基づいて特徴をアレンジし、類似の特徴を画像中心から渦パターンに間隔を置き、属性カウントによって画像サイズを決定する。
VFPは、さまざまな実数値属性を持つ7つのデータセットにわたるテストにおいて、従来の機械学習手法や既存の変換テクニックよりも優れています。
関連論文リスト
- Parameter-Inverted Image Pyramid Networks [49.35689698870247]
Inverted Image Pyramid Networks (PIIP) と呼ばれる新しいネットワークアーキテクチャを提案する。
私たちの中核となる考え方は、パラメータサイズの異なるモデルを使用して、画像ピラミッドの解像度の異なるレベルを処理することです。
PIIPは、オブジェクト検出、セグメンテーション、画像分類などのタスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-06-06T17:59:10Z) - Parallel Cross Strip Attention Network for Single Image Dehazing [15.246376325081973]
単一画像デハジングは、ぼんやりとしたイメージを復元し、透明で高品質なビジュアルを作り出すことを目的としている。
伝統的な畳み込みモデルは、受容野のサイズが限られているため、長距離依存に苦しむ。
マルチスケール戦略を用いた並列Stripe Cross Attention (PCSA) に基づく新しいデハージングネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-09T14:50:07Z) - Differentiable Registration of Images and LiDAR Point Clouds with
VoxelPoint-to-Pixel Matching [58.10418136917358]
カメラからの2D画像とLiDARからの3Dポイントクラウドの間のクロスモダリティ登録は、コンピュータビジョンとロボットトレーニングにおいて重要な課題である。
ニューラルネットワークで学習した点パターンと画素パターンのマッチングによる2次元3次元対応の推定
我々は、異なる潜在画素空間を介して3次元特徴を表現するために、構造化されたモダリティマッチングソルバを学習する。
論文 参考訳(メタデータ) (2023-12-07T05:46:10Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Deep Neural Networks Fused with Textures for Image Classification [20.58839604333332]
きめ細かい画像分類はコンピュータビジョンにおいて難しい課題である。
グローバルテクスチャと局所パッチ情報を組み合わせたFGICの融合手法を提案する。
提案手法は,有意なマージンを有する既存手法よりも高い分類精度を達成できた。
論文 参考訳(メタデータ) (2023-08-03T15:21:08Z) - Parallax-Tolerant Unsupervised Deep Image Stitching [57.76737888499145]
本稿では,パララックス耐性の非教師あり深層画像縫合技術であるUDIS++を提案する。
まず,グローバルなホモグラフィから局所的な薄板スプライン運動への画像登録をモデル化するための,頑健で柔軟なワープを提案する。
本研究では, 縫合された画像をシームレスに合成し, シーム駆動合成マスクの教師なし学習を行うことを提案する。
論文 参考訳(メタデータ) (2023-02-16T10:40:55Z) - Image Inpainting with Edge-guided Learnable Bidirectional Attention Maps [85.67745220834718]
不規則な穴の画像インペインティングを改善するためのエッジガイド学習可能な双方向注意マップ(Edge-LBAM)を紹介します。
当社のEdge-LBAMメソッドには、予測エッジによる構造認識マスク更新を含むデュアルプロシージャが含まれています。
広範な実験により,エッジlbamはコヒーレントな画像構造を生成し,色差やぼやけを防止できることがわかった。
論文 参考訳(メタデータ) (2021-04-25T07:25:16Z) - Exploring Intensity Invariance in Deep Neural Networks for Brain Image
Registration [0.0]
深層学習に基づく画像登録における入力画像対間の強度分布の影響について検討する。
構造的類似性に基づく損失をトレーニングしたディープラーニングモデルは、両方のデータセットでよりよく機能しているようだ。
論文 参考訳(メタデータ) (2020-09-21T17:49:03Z) - FeatMatch: Feature-Based Augmentation for Semi-Supervised Learning [64.32306537419498]
本稿では,複雑な変換を多様に生成する特徴量に基づく改良・拡張手法を提案する。
これらの変換は、クラスタリングを通じて抽出したクラス内およびクラス間の両方の情報も利用します。
提案手法は,大規模データセットにスケールアップしながら,より小さなデータセットに対して,現在の最先端技術に匹敵するものであることを実証する。
論文 参考訳(メタデータ) (2020-07-16T17:55:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。