論文の概要: Transfer Learning with Deep Tabular Models
- arxiv url: http://arxiv.org/abs/2206.15306v2
- Date: Mon, 7 Aug 2023 04:07:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 01:07:40.724387
- Title: Transfer Learning with Deep Tabular Models
- Title(参考訳): 深層表モデルを用いたトランスファー学習
- Authors: Roman Levin, Valeriia Cherepanova, Avi Schwarzschild, Arpit Bansal, C.
Bayan Bruss, Tom Goldstein, Andrew Gordon Wilson, Micah Goldblum
- Abstract要約: 上流データにより、グラフニューラルネットワークはGBDTモデルよりも決定的な優位性を示す。
そこで本研究では,表在化学習のための現実的な診断ベンチマークを提案する。
上流と下流の特徴セットが異なる場合の擬似特徴法を提案する。
- 参考スコア(独自算出の注目度): 66.67017691983182
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work on deep learning for tabular data demonstrates the strong
performance of deep tabular models, often bridging the gap between gradient
boosted decision trees and neural networks. Accuracy aside, a major advantage
of neural models is that they learn reusable features and are easily fine-tuned
in new domains. This property is often exploited in computer vision and natural
language applications, where transfer learning is indispensable when
task-specific training data is scarce. In this work, we demonstrate that
upstream data gives tabular neural networks a decisive advantage over widely
used GBDT models. We propose a realistic medical diagnosis benchmark for
tabular transfer learning, and we present a how-to guide for using upstream
data to boost performance with a variety of tabular neural network
architectures. Finally, we propose a pseudo-feature method for cases where the
upstream and downstream feature sets differ, a tabular-specific problem
widespread in real-world applications. Our code is available at
https://github.com/LevinRoman/tabular-transfer-learning .
- Abstract(参考訳): 表型データに対するディープラーニングに関する最近の研究は、深い表型モデルの強力な性能を示し、しばしば勾配を増した決定木とニューラルネットワークの間のギャップを埋めている。
正確性はさておき、ニューラルモデルの大きな利点は、再利用可能な機能を学び、新しいドメインで簡単に微調整できることだ。
この性質はコンピュータビジョンや自然言語アプリケーションでしばしば利用され、タスク固有のトレーニングデータが不足している場合、転送学習は不可欠である。
本研究では,上流データにより,広く使用されているGBDTモデルに対して,表層ニューラルネットワークが決定的な優位性を示す。
本稿では,表層トランスファー学習のための現実的な医療診断ベンチマークを提案し,様々な表層ニューラルネットワークアーキテクチャを用いて,上流データを用いたパフォーマンス向上のためのハウツーガイドを提案する。
最後に,上流と下流の機能集合が異なる場合の擬似特徴量法を提案する。
私たちのコードはhttps://github.com/LevinRoman/tabular-transfer-learning で利用可能です。
関連論文リスト
- Interpretable Mesomorphic Networks for Tabular Data [25.76214343259399]
我々は,深度と線形性の両方を同時に備えた,解釈可能なニューラルネットワークの新たなクラスを提案する。
我々は、ディープ・ハイパーネットワークを最適化し、インスタンス毎に説明可能な線形モデルを生成する。
論文 参考訳(メタデータ) (2023-05-22T14:41:17Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Reasoning-Modulated Representations [85.08205744191078]
タスクが純粋に不透明でないような共通的な環境について研究する。
我々のアプローチは、新しいデータ効率表現学習の道を開く。
論文 参考訳(メタデータ) (2021-07-19T13:57:13Z) - Transformer-Based Behavioral Representation Learning Enables Transfer
Learning for Mobile Sensing in Small Datasets [4.276883061502341]
時系列から一般化可能な特徴表現を学習できるモバイルセンシングデータのためのニューラルネットワークフレームワークを提供する。
このアーキテクチャは、CNNとTrans-formerアーキテクチャの利点を組み合わせて、より良い予測性能を実現する。
論文 参考訳(メタデータ) (2021-07-09T22:26:50Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Efficacy of Bayesian Neural Networks in Active Learning [11.609770399591516]
ベイズニューラルネットワークは、アンサンブルに基づく不確実性を捕捉する技術よりも効率的であることを示す。
また,近年,モンテカルロのドロップアウトよりも効果的であることが判明したアンサンブル技法の重要な欠点も明らかにした。
論文 参考訳(メタデータ) (2021-04-02T06:02:11Z) - Learning Purified Feature Representations from Task-irrelevant Labels [18.967445416679624]
本稿では,タスク関連ラベルから抽出したタスク関連機能を利用したPurifiedLearningという新しい学習フレームワークを提案する。
本研究は,PurifiedLearningの有効性を実証する,ソリッド理論解析と広範囲な実験に基づいている。
論文 参考訳(メタデータ) (2021-02-22T12:50:49Z) - The Yin-Yang dataset [0.0]
Yin-Yangデータセットは、スパイキングニューラルネットワークにおける生物学的に妥当なエラーバックプロパゲーションとディープラーニングの研究のために開発された。
これは、いくつかの利点を提供することで、古典的なディープラーニングデータセットに代わる役割を果たします。
論文 参考訳(メタデータ) (2021-02-16T15:18:05Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。