論文の概要: Table2Image: Interpretable Tabular Data Classification with Realistic Image Transformations
- arxiv url: http://arxiv.org/abs/2412.06265v2
- Date: Thu, 23 Jan 2025 06:59:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-24 15:56:08.662306
- Title: Table2Image: Interpretable Tabular Data Classification with Realistic Image Transformations
- Title(参考訳): Table2 Image: Realistic Image Transformationsを用いた解釈可能なタブラリデータ分類
- Authors: Seungeun Lee, Il-Youp Kwak, Kihwan Lee, Subin Bae, Sangjun Lee, Seulbin Lee, Seungsang Oh,
- Abstract要約: 本稿では,表形式のデータをリアルかつ多様な画像表現に変換する新しいフレームワークであるTable2Imageを紹介する。
また、元のデータとその変換された画像表現からの洞察を統合する、解釈可能性フレームワークを提案する。
- 参考スコア(独自算出の注目度): 5.62508658491325
- License:
- Abstract: Recent advancements in deep learning for tabular data have shown promise, but challenges remain in achieving interpretable and lightweight models. This paper introduces Table2Image, a novel framework that transforms tabular data into realistic and diverse image representations, enabling deep learning methods to achieve competitive classification performance. To address multicollinearity in tabular data, we propose a variance inflation factor (VIF) initialization, which enhances model stability and robustness by incorporating statistical feature relationships. Additionally, we present an interpretability framework that integrates insights from both the original tabular data and its transformed image representations, by leveraging Shapley additive explanations (SHAP) and methods to minimize distributional discrepancies. Experiments on benchmark datasets demonstrate the efficacy of our approach, achieving superior accuracy, area under the curve, and interpretability compared to recent leading deep learning models. Our lightweight method provides a scalable and reliable solution for tabular data classification.
- Abstract(参考訳): 表形式のデータに対するディープラーニングの進歩は、将来性を示しているが、解釈可能で軽量なモデルを実現する上ではまだ課題が残っている。
本稿では,表形式のデータをリアルかつ多様な画像表現に変換する新しいフレームワークであるTable2Imageを紹介する。
本稿では,統計的特徴関係を組み込んだモデル安定性とロバスト性を向上させる分散インフレーション係数(VIF)の初期化を提案する。
さらに、Shapley加法的説明(SHAP)と分散の相違を最小化する手法を利用して、元の表データと変換された画像表現の両方からの洞察を統合する解釈可能性フレームワークを提案する。
ベンチマークデータセットを用いた実験は、我々のアプローチの有効性を示し、精度、曲線下の面積、そして最近の先進的なディープラーニングモデルと比較して解釈可能性を実現している。
我々の軽量な手法は、表データの分類にスケーラブルで信頼性の高いソリューションを提供する。
関連論文リスト
- ComFe: Interpretable Image Classifiers With Foundation Models [8.572967695281054]
解釈可能なコンピュータビジョンモデルは、画像の埋め込みとトレーニングデータを表すプロトタイプのセットとの距離を比較することで、それらの分類を説明する。
ComFeは、ImageNet-1Kのようなデータセットのスケールで適用可能な、最初の解釈可能なアプローチである。
ComFeは、イメージ内の一貫したコンポーネントの特徴を識別し、これらの特徴のうちどれが予測に有益であるかを判断する。
論文 参考訳(メタデータ) (2024-03-07T00:44:21Z) - Image2Sentence based Asymmetrical Zero-shot Composed Image Retrieval [92.13664084464514]
合成画像検索(CIR)の課題は,検索画像とユーザの意図を記述したテキストに基づいて画像を取得することである。
既存の手法は、CIRタスクにおける高度な大規模視覚言語(VL)モデルにおいて大きな進歩を遂げているが、それらは一般的に、モデルトレーニングのためのラベル付き三重項の欠如とリソース制限された環境への展開の困難という2つの大きな問題に悩まされている。
本稿では、VLモデルを利用して合成学習のためのラベルなし画像のみに依存する画像2Sentenceに基づく非対称ゼロショット合成画像検索(ISA)を提案する。
論文 参考訳(メタデータ) (2024-03-03T07:58:03Z) - Images in Discrete Choice Modeling: Addressing Data Isomorphism in
Multi-Modality Inputs [77.54052164713394]
本稿では,離散選択モデリング(DCM)と機械学習の交わりについて考察する。
本稿では,DCMフレームワーク内の従来の表型入力と同型情報を共有する高次元画像データの埋め込み結果について検討する。
論文 参考訳(メタデータ) (2023-12-22T14:33:54Z) - ClipCrop: Conditioned Cropping Driven by Vision-Language Model [90.95403416150724]
我々は、堅牢でユーザ意図的な収穫アルゴリズムを構築する基盤として、視覚言語モデルを活用している。
そこで本研究では,ユーザの意図を反映したテキストや画像クエリを用いて,トリミングを行う手法を開発した。
私たちのパイプライン設計では、小さなデータセットでテキスト条件の美学を学習することができます。
論文 参考訳(メタデータ) (2022-11-21T14:27:07Z) - PTab: Using the Pre-trained Language Model for Modeling Tabular Data [5.791972449406902]
近年の研究では、ニューラルネットワークモデルがタブラルデータの文脈表現の学習に有効であることが示されている。
本稿では,事前学習言語モデルを用いて,タブラルデータをモデル化する新しいフレームワークPTabを提案する。
提案手法は,最先端のベースラインに比べて,教師付き設定における平均AUCスコアが向上した。
論文 参考訳(メタデータ) (2022-09-15T08:58:42Z) - TSRFormer: Table Structure Recognition with Transformers [15.708108572696064]
本稿では,TSRFormerと呼ばれる新しいテーブル構造認識手法を提案する。
新たな2段階DETRに基づくセパレータ予測手法である textbfSeparator textbfREgression textbfTRansformer (SepRETR) を提案する。
我々は、SciTSR、PubTabNet、WTWなど、いくつかのベンチマークデータセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-08-09T17:36:13Z) - Robust Cross-Modal Representation Learning with Progressive
Self-Distillation [7.676408770854477]
CLIPの視覚言語アプローチの学習目的は、Webハーベスト画像キャプションデータセットに見られるノイズの多い多対多対応を効果的に考慮していない。
本研究では、進行的な自己蒸留とソフトな画像テキストアライメントを用いて、雑音の多いデータから頑健な表現をより効率的に学習するクロスモーダルコントラスト学習に基づく新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-10T03:28:18Z) - IMACS: Image Model Attribution Comparison Summaries [16.80986701058596]
我々は,勾配に基づくモデル属性とアグリゲーションと可視化技術を組み合わせたIMACSを提案する。
IMACSは評価データセットから適切な入力特徴を抽出し、類似性に基づいてクラスタ化し、類似した入力特徴に対するモデル属性の違いを可視化する。
本稿では,衛星画像上で訓練した2つのモデル間の領域シフトによる行動差を明らかにする方法を示す。
論文 参考訳(メタデータ) (2022-01-26T21:35:14Z) - Label-Free Model Evaluation with Semi-Structured Dataset Representations [78.54590197704088]
ラベルなしモデル評価(AutoEval)は、ラベルなしテストセットでモデル精度を推定する。
画像ラベルがない場合、データセット表現に基づいて、回帰を伴うAutoEvalのモデル性能を推定する。
本稿では,AutoEvalのリッチな情報を含む回帰学習のための半構造化データセット表現を提案する。
論文 参考訳(メタデータ) (2021-12-01T18:15:58Z) - Out-of-distribution Generalization via Partial Feature Decorrelation [72.96261704851683]
本稿では,特徴分解ネットワークと対象画像分類モデルとを協調的に最適化する,PFDL(Partial Feature Deorrelation Learning)アルゴリズムを提案する。
実世界のデータセットを用いた実験により,OOD画像分類データセットにおけるバックボーンモデルの精度が向上することを示した。
論文 参考訳(メタデータ) (2020-07-30T05:48:48Z) - FeatMatch: Feature-Based Augmentation for Semi-Supervised Learning [64.32306537419498]
本稿では,複雑な変換を多様に生成する特徴量に基づく改良・拡張手法を提案する。
これらの変換は、クラスタリングを通じて抽出したクラス内およびクラス間の両方の情報も利用します。
提案手法は,大規模データセットにスケールアップしながら,より小さなデータセットに対して,現在の最先端技術に匹敵するものであることを実証する。
論文 参考訳(メタデータ) (2020-07-16T17:55:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。