論文の概要: Stochastic gradient descent with gradient estimator for categorical
features
- arxiv url: http://arxiv.org/abs/2209.03771v2
- Date: Tue, 18 Apr 2023 07:50:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 18:31:27.142337
- Title: Stochastic gradient descent with gradient estimator for categorical
features
- Title(参考訳): カテゴリー的特徴に対する勾配推定器を用いた確率勾配降下
- Authors: Paul Peseux, Maxime Berar, Thierry Paquet, Victor Nicollet
- Abstract要約: カテゴリーデータは、健康やサプライチェーンなどの重要な領域に存在し、このデータは特定の治療を必要とする。
このようなデータに最近の機械学習モデルを適用するためには、エンコーディングが必要である。
解釈可能なモデルを構築するために、ワンホット符号化は依然として非常に良いが、スパースデータを符号化する。
この推定器は理論上何が最小かを示し、複数のモデルアーキテクチャを持つ異なるデータセット上でその効率を示す。
- 参考スコア(独自算出の注目度): 3.597778914286147
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Categorical data are present in key areas such as health or supply chain, and
this data require specific treatment. In order to apply recent machine learning
models on such data, encoding is needed. In order to build interpretable
models, one-hot encoding is still a very good solution, but such encoding
creates sparse data. Gradient estimators are not suited for sparse data: the
gradient is mainly considered as zero while it simply does not always exists,
thus a novel gradient estimator is introduced. We show what this estimator
minimizes in theory and show its efficiency on different datasets with multiple
model architectures. This new estimator performs better than common estimators
under similar settings. A real world retail dataset is also released after
anonymization. Overall, the aim of this paper is to thoroughly consider
categorical data and adapt models and optimizers to these key features.
- Abstract(参考訳): カテゴリーデータは健康やサプライチェーンといった重要な領域に存在し、このデータは特定の治療を必要とする。
このようなデータに最近の機械学習モデルを適用するには、エンコーディングが必要である。
解釈可能なモデルを構築するために、ワンホットエンコーディングは依然として非常に良いソリューションであるが、そのようなエンコーディングはスパースデータを生成する。
グラディエント推定器はスパースデータには適さないが、グラディエント推定器は主にゼロと見なされるが、必ずしも存在しないため、新しい勾配推定器が導入された。
この推定器は理論上何が最小かを示し、複数のモデルアーキテクチャを持つ異なるデータセット上でその効率を示す。
この新しい推定器は、同様の設定で一般的な推定器よりも優れている。
現実世界のリテールデータセットも匿名化後にリリースされる。
本論文の目的は、分類データを徹底的に検討し、これらの重要な特徴にモデルとオプティマイザを適用することである。
関連論文リスト
- The Persian Rug: solving toy models of superposition using large-scale symmetries [0.0]
入力次元が大きければ最小限の非線形スパースデータオートエンコーダによって学習されたアルゴリズムの完全なメカニスティック記述を示す。
我々の研究は、オートエンコーダの構造を理解する技術を導入することによって、ニューラルネットワークの解釈可能性に貢献している。
論文 参考訳(メタデータ) (2024-10-15T22:52:45Z) - More precise edge detections [0.0]
エッジ検出 (ED) はコンピュータビジョンの基本的なタスクである。
現在のモデルは相変わらず不満足な精度に悩まされている。
より正確な予測のためのモデルアーキテクチャはまだ調査が必要である。
論文 参考訳(メタデータ) (2024-07-29T13:24:55Z) - Learning Defect Prediction from Unrealistic Data [57.53586547895278]
事前訓練されたコードのモデルは、コード理解と生成タスクに人気がある。
このようなモデルは大きい傾向があり、訓練データの総量を必要とする。
人工的に注入されたバグのある関数など、はるかに大きくてもより現実的なデータセットを持つモデルをトレーニングすることが一般的になった。
このようなデータで訓練されたモデルは、実際のプログラムでは性能が劣りながら、同様のデータでのみうまく機能する傾向にある。
論文 参考訳(メタデータ) (2023-11-02T01:51:43Z) - Scalable Estimation for Structured Additive Distributional Regression [0.0]
本稿では,勾配降下の考え方に基づいて,従来のノートパソコン上の任意の量のデータを扱うことができる新しいバックフィッティングアルゴリズムを提案する。
大規模なシミュレーション研究と、オーストリアにおける雷数予測の非常に困難でユニークな例を用いて、性能を評価した。
論文 参考訳(メタデータ) (2023-01-13T14:59:42Z) - An Information-Theoretic Analysis of Compute-Optimal Neural Scaling Laws [24.356906682593532]
大規模ニューラルネットワークにおけるモデルとトレーニングデータセットサイズ間の計算-最適トレードオフについて検討する。
以上の結果から, チンチラの実証分析で裏付けられる線形関係が示唆された。
論文 参考訳(メタデータ) (2022-12-02T18:46:41Z) - AdaCat: Adaptive Categorical Discretization for Autoregressive Models [84.85102013917606]
AdaCat(Adaptive Categorical Discretization)と呼ばれる,効率的で表現性の高いマルチモーダルパラメータ化を提案する。
AdaCatは自己回帰モデルの各次元を適応的に識別し、モデルが関心の細かい間隔に密度を割り当てることを可能にする。
論文 参考訳(メタデータ) (2022-08-03T17:53:46Z) - X-model: Improving Data Efficiency in Deep Learning with A Minimax Model [78.55482897452417]
ディープラーニングにおける分類と回帰設定の両面でのデータ効率の向上を目標とする。
両世界の力を生かすために,我々は新しいX-モデルを提案する。
X-モデルは、特徴抽出器とタスク固有のヘッドの間でミニマックスゲームを行う。
論文 参考訳(メタデータ) (2021-10-09T13:56:48Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - AutoSimulate: (Quickly) Learning Synthetic Data Generation [70.82315853981838]
目的の新たな微分可能近似に基づく最適な合成データ生成法を提案する。
提案手法は,学習データ生成の高速化(最大50Times$)と,実世界のテストデータセットの精度向上(+8.7%$)を実現している。
論文 参考訳(メタデータ) (2020-08-16T11:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。