論文の概要: LM-IGTD: a 2D image generator for low-dimensional and mixed-type tabular data to leverage the potential of convolutional neural networks
- arxiv url: http://arxiv.org/abs/2406.14566v1
- Date: Fri, 26 Apr 2024 09:52:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 07:30:49.436284
- Title: LM-IGTD: a 2D image generator for low-dimensional and mixed-type tabular data to leverage the potential of convolutional neural networks
- Title(参考訳): LM-IGTD:畳み込みニューラルネットワークの可能性を利用する低次元および混合型表層データのための2次元画像生成装置
- Authors: Vanesa Gómez-Martínez, Francisco J. Lara-Abelenda, Pablo Peiro-Corbacho, David Chushig-Muzo, Conceicao Granja, Cristina Soguero-Ruiz,
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、機能(イメージ)の順番にデータに関する重要な情報が埋め込まれた多くのアプリケーションで成功している。
低次元および混合型データセットに関連する固有の制約に対処し、グラフデータを画像に変換するための新しい効果的なアプローチを提案する。
原特徴と生成された画像とのマッピングを確立し、これらの画像の重要な領域を特定するためにポストホック解釈可能性法を用いる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tabular data have been extensively used in different knowledge domains. Convolutional neural networks (CNNs) have been successfully used in many applications where important information about data is embedded in the order of features (images), outperforming predictive results of traditional models. Recently, several researchers have proposed transforming tabular data into images to leverage the potential of CNNs and obtain high results in predictive tasks such as classification and regression. In this paper, we present a novel and effective approach for transforming tabular data into images, addressing the inherent limitations associated with low-dimensional and mixed-type datasets. Our method, named Low Mixed-Image Generator for Tabular Data (LM-IGTD), integrates a stochastic feature generation process and a modified version of the IGTD. We introduce an automatic and interpretable end-to-end pipeline, enabling the creation of images from tabular data. A mapping between original features and the generated images is established, and post hoc interpretability methods are employed to identify crucial areas of these images, enhancing interpretability for predictive tasks. An extensive evaluation of the tabular-to-image generation approach proposed on 12 low-dimensional and mixed-type datasets, including binary and multi-class classification scenarios. In particular, our method outperformed all traditional ML models trained on tabular data in five out of twelve datasets when using images generated with LM-IGTD and CNN. In the remaining datasets, LM-IGTD images and CNN consistently surpassed three out of four traditional ML models, achieving similar results to the fourth model.
- Abstract(参考訳): タブラルデータは様々な知識領域で広く使われている。
畳み込みニューラルネットワーク(CNN)は多くのアプリケーションで、データに関する重要な情報が特徴(イメージ)の順番に埋め込まれ、従来のモデルの予測結果よりも優れています。
近年,CNNの可能性を生かし,分類や回帰といった予測タスクにおいて高い結果を得るために,表型データを画像に変換する手法が提案されている。
本稿では,低次元および混合型データセットに係わる固有の制約に対処し,表層データを画像に変換する新しい,効果的な手法を提案する。
提案手法は,階層データのための低混合画像生成装置 (LM-IGTD) で,確率的特徴生成プロセスとIGTDの修正版を統合する。
自動で解釈可能なエンドツーエンドパイプラインを導入し、表データから画像を生成する。
元の特徴と生成された画像とのマッピングが確立され、これらの画像の重要な領域を特定するためにポストホック解釈可能性法が採用され、予測タスクの解釈可能性を高める。
12種類の低次元および混合型データセットに対して提案した表-画像生成手法の広範な評価を行った。
特に,LM-IGTDとCNNで生成された画像を用いた場合,12データセット中5データセットにおいて,従来のMLモデルよりも優れていた。
残りのデータセットでは、LM-IGTDイメージとCNNは4つの伝統的なMLモデルのうち3つを一貫して上回り、第4のモデルと同様の結果を得た。
関連論文リスト
- Multi-Grid Graph Neural Networks with Self-Attention for Computational Mechanics [0.0]
本稿では,GNNにおける自己認識とメッセージパッシングを融合した新しいモデルを提案する。
自己注意に基づく動的メッシュプルーニング手法が提案され,より堅牢なGNNベースのマルチグリッド手法が提案されている。
BERTに基づく新たな自己教師型トレーニング手法を提案し,25%のRMSE削減を実現した。
論文 参考訳(メタデータ) (2024-09-18T11:47:48Z) - Images in Discrete Choice Modeling: Addressing Data Isomorphism in
Multi-Modality Inputs [77.54052164713394]
本稿では,離散選択モデリング(DCM)と機械学習の交わりについて考察する。
本稿では,DCMフレームワーク内の従来の表型入力と同型情報を共有する高次元画像データの埋め込み結果について検討する。
論文 参考訳(メタデータ) (2023-12-22T14:33:54Z) - Masked Contrastive Graph Representation Learning for Age Estimation [44.96502862249276]
本稿では,画像冗長性情報を扱う上で,グラフ表現学習の特性を利用する。
年齢推定のためのMasked Contrastive Graph Representation Learning (MCGRL)法を提案する。
実世界の顔画像データセットに対する実験結果から,提案手法が他の最先端の年齢推定手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-06-16T15:53:21Z) - Zero-shot Composed Text-Image Retrieval [72.43790281036584]
合成画像検索(CIR)の問題点を考察する。
テキストや画像などのマルチモーダル情報を融合し、クエリにマッチする画像を正確に検索し、ユーザの表現能力を拡張できるモデルをトレーニングすることを目的としている。
論文 参考訳(メタデータ) (2023-06-12T17:56:01Z) - Multi-layer Representation Learning for Robust OOD Image Classification [3.1372269816123994]
我々は、CNNの中間層から特徴を抽出することで、モデルの最終的な予測を支援することができると主張している。
具体的には、ハイパーカラム法をResNet-18に適用し、NICOデータセットで評価した場合、モデルの精度を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-27T17:46:06Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Exploring Generative Adversarial Networks for Image-to-Image Translation
in STEM Simulation [0.0]
畳み込み法により生成されたSTEM画像を高精度なマルチスライス画像の予測に変換しようとする深層学習モデルについて検討する。
ディープラーニングモデルであるGenerative Adrial Network(GAN)を使用することで、最適な結果が得られ、同一データセット上の従来の回帰モデルと同等の精度で処理できることがわかった。
論文 参考訳(メタデータ) (2020-10-29T02:14:57Z) - Applying convolutional neural networks to extremely sparse image
datasets using an image subdivision approach [0.0]
本研究の目的は、畳み込みニューラルネットワーク(CNN)が、元の画像データセットを分割することにより、非常にスパースな画像ライブラリに適用できることを実証することである。
論文 参考訳(メタデータ) (2020-10-25T07:43:20Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z) - Locally Masked Convolution for Autoregressive Models [107.4635841204146]
LMConvは標準的な2Dコンボリューションの簡単な修正であり、任意のマスクを画像の各位置の重みに適用することができる。
我々は,パラメータを共有するが生成順序が異なる分布推定器のアンサンブルを学習し,全画像密度推定の性能を向上させる。
論文 参考訳(メタデータ) (2020-06-22T17:59:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。