論文の概要: Learning from Incomplete Features by Simultaneous Training of Neural
Networks and Sparse Coding
- arxiv url: http://arxiv.org/abs/2011.14047v2
- Date: Sat, 17 Apr 2021 20:09:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 19:22:09.229520
- Title: Learning from Incomplete Features by Simultaneous Training of Neural
Networks and Sparse Coding
- Title(参考訳): ニューラルネットワークとスパース符号化の同時学習による不完全特徴からの学習
- Authors: Cesar F. Caiafa, Ziyao Wang, Jordi Sol\'e-Casals, Qibin Zhao
- Abstract要約: 本稿では,不完全な特徴を持つデータセット上で分類器を訓練する問題に対処する。
私たちは、各データインスタンスで異なる機能のサブセット(ランダムまたは構造化)が利用できると仮定します。
新しい教師付き学習法が開発され、サンプルあたりの機能のサブセットのみを使用して、一般的な分類器を訓練する。
- 参考スコア(独自算出の注目度): 24.3769047873156
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, the problem of training a classifier on a dataset with
incomplete features is addressed. We assume that different subsets of features
(random or structured) are available at each data instance. This situation
typically occurs in the applications when not all the features are collected
for every data sample. A new supervised learning method is developed to train a
general classifier, such as a logistic regression or a deep neural network,
using only a subset of features per sample, while assuming sparse
representations of data vectors on an unknown dictionary. Sufficient conditions
are identified, such that, if it is possible to train a classifier on
incomplete observations so that their reconstructions are well separated by a
hyperplane, then the same classifier also correctly separates the original
(unobserved) data samples. Extensive simulation results on synthetic and
well-known datasets are presented that validate our theoretical findings and
demonstrate the effectiveness of the proposed method compared to traditional
data imputation approaches and one state-of-the-art algorithm.
- Abstract(参考訳): 本稿では,不完全な特徴を持つデータセット上で分類器を訓練する問題に対処する。
各データインスタンスで異なる機能のサブセット(ランダムまたは構造化)が利用できると仮定する。
この状況は一般的に、すべての機能がデータサンプル毎に収集されない場合に発生する。
未知辞書上のデータベクトルのスパース表現を仮定しながら、サンプル毎の機能のサブセットのみを使用して、ロジスティック回帰やディープニューラルネットワークといった一般的な分類器を訓練する新しい教師付き学習法を開発した。
十分な条件が特定され、もしそれらの再構築がハイパープレーンによって適切に分離されるように不完全な観察で分類器を訓練できるなら、同じ分類器は元の(観測されていない)データサンプルを正しく分離する。
従来のデータインプテーション手法と1つの最先端アルゴリズムと比較して,提案手法の有効性を検証し,提案手法の有効性を示すために,合成およびよく知られたデータセットに関する広範なシミュレーション結果が提示された。
関連論文リスト
- Approaching Metaheuristic Deep Learning Combos for Automated Data Mining [0.5419570023862531]
本研究では,メタヒューリスティック手法を従来の分類器やニューラルネットワークと組み合わせて自動データマイニングを行う手法を提案する。
手書き文字認識のためのMNISTデータセットの実験を行った。
根拠真理ラベル付きデータセットの検証精度は、これまで見つからなかった他のデータインスタンスのラベルを修正するのに不十分である、という実証的な観察がなされた。
論文 参考訳(メタデータ) (2024-10-16T10:28:22Z) - Iterative self-transfer learning: A general methodology for response
time-history prediction based on small dataset [0.0]
本研究では,小さなデータセットに基づいてニューラルネットワークを学習するための反復的自己伝達学習手法を提案する。
提案手法は,小さなデータセットに対して,ほぼ一桁の精度でモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T18:48:04Z) - An unfolding method based on conditional Invertible Neural Networks
(cINN) using iterative training [0.0]
非可逆ニューラルネットワーク(INN)のような生成ネットワークは確率的展開を可能にする。
模擬トレーニングサンプルとデータ間のずれを調整した展開のための反復条件INN(IcINN)を導入する。
論文 参考訳(メタデータ) (2022-12-16T19:00:05Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Interpreting intermediate convolutional layers in unsupervised acoustic
word classification [0.0]
本稿では、教師なし深層畳み込みニューラルネットワークの中間層を可視化し、解釈する手法を提案する。
GANベースのアーキテクチャ(ciwGAN arXiv:2006.02951)はTIMITの未ラベルのスライスされた語彙で訓練された。
論文 参考訳(メタデータ) (2021-10-05T21:53:32Z) - A hybrid model-based and learning-based approach for classification
using limited number of training samples [13.60714541247498]
本稿では,物理に基づく統計モデルと学習に基づく分類器の両方を利用するハイブリッド分類手法であるHyPhyLearnを提案する。
提案手法は、HyPhyLearnが学習ベースおよび統計モデルに基づく分類器の個人的アプローチに関連する課題を軽減するという予想に基づいている。
論文 参考訳(メタデータ) (2021-06-25T05:19:50Z) - Meta-learning One-class Classifiers with Eigenvalue Solvers for
Supervised Anomaly Detection [55.888835686183995]
教師付き異常検出のためのニューラルネットワークに基づくメタラーニング手法を提案する。
提案手法は,既存の異常検出法や少数ショット学習法よりも優れた性能を実現することを実験的に実証した。
論文 参考訳(メタデータ) (2021-03-01T01:43:04Z) - Network Classifiers Based on Social Learning [71.86764107527812]
空間と時間に対して独立に訓練された分類器を結合する新しい手法を提案する。
提案したアーキテクチャは、ラベルのないデータで時間とともに予測性能を改善することができる。
この戦略は高い確率で一貫した学習をもたらすことが示され、未訓練の分類器に対して頑健な構造が得られる。
論文 参考訳(メタデータ) (2020-10-23T11:18:20Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。