論文の概要: Generalized Stable Weights via Neural Gibbs Density
- arxiv url: http://arxiv.org/abs/2211.07533v1
- Date: Mon, 14 Nov 2022 17:03:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 16:36:03.925245
- Title: Generalized Stable Weights via Neural Gibbs Density
- Title(参考訳): ニューラルギブズ密度による一般化安定度
- Authors: Yoshiaki Kitazawa
- Abstract要約: 因果効果を推定するための一般化バランスウェイト法を提案する。
ウェイトはバックプロパゲーションによってトレーニング可能であり、ニューラルネットワークアルゴリズムを用いてウェイトを推定する方法を提供する。
提案手法は,既存のディープラーニングライブラリで実装が容易であり,その重み付けをほとんどの最先端の教師付きアルゴリズムで利用することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a generalized balancing weight method fully available for
estimating causal effects for an arbitrary mixture of discrete and continuous
interventions. Our weights are trainable through back-propagation, and we give
a method for estimating the weights via neural network algorithms. In addition,
we also provide a method to measure the performance of our weights by
estimating the mutual information for the balanced distribution. Our method is
easy to implement with any present deep learning libraries, and the weights
from it can be used in most state-of-art supervised algorithms.
- Abstract(参考訳): 離散的および連続的な介入の任意の混合に対する因果効果を推定するための一般化されたバランスウェイト法を提案する。
我々の重みはバックプロパゲーションによってトレーニング可能であり、ニューラルネットワークアルゴリズムによって重みを推定する方法を提供する。
また、バランスの取れた分布の相互情報を推定することにより、ウェイトの性能を測定する方法も提供する。
本手法は,既存の深層学習ライブラリでも容易に実装でき,その重み付けをほとんどの教師付きアルゴリズムで利用することができる。
関連論文リスト
- Exploring Weight Balancing on Long-Tailed Recognition Problem [37.820617032391404]
トレーニング段階ごとの神経崩壊とコーン効果に着目して重量バランスを解析した。
本分析により, トレーニング段階数を1に減らし, 精度を向上し, トレーニング手法をさらに単純化することができる。
論文 参考訳(メタデータ) (2023-05-26T01:45:19Z) - Learning to Re-weight Examples with Optimal Transport for Imbalanced
Classification [74.62203971625173]
不均衡データは、ディープラーニングに基づく分類モデルに課題をもたらす。
不均衡なデータを扱うための最も広く使われているアプローチの1つは、再重み付けである。
本稿では,分布の観点からの最適輸送(OT)に基づく新しい再重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-08-05T01:23:54Z) - Adaptive Importance Sampling meets Mirror Descent: a Bias-variance
tradeoff [7.538482310185135]
適応的な重要度サンプリングの大きな欠点は、重みの大きなばらつきである。
本稿では,一定のパワーで重み付けを行うことを基本原理とする正規化戦略について検討する。
論文 参考訳(メタデータ) (2021-10-29T07:45:24Z) - Heavy-tailed Streaming Statistical Estimation [58.70341336199497]
ストリーミング$p$のサンプルから重み付き統計推定の課題を考察する。
そこで我々は,傾きの雑音に対して,よりニュアンスな条件下での傾きの傾きの低下を設計し,より詳細な解析を行う。
論文 参考訳(メタデータ) (2021-08-25T21:30:27Z) - Post-mortem on a deep learning contest: a Simpson's paradox and the
complementary roles of scale metrics versus shape metrics [61.49826776409194]
我々は、ニューラルネットワーク(NN)モデルの一般化精度を予測するために、コンテストで公に利用可能にされたモデルのコーパスを分析する。
メトリクスが全体としてよく機能するが、データのサブパーティションではあまり機能しない。
本稿では,データに依存しない2つの新しい形状指標と,一連のNNのテスト精度の傾向を予測できるデータ依存指標を提案する。
論文 参考訳(メタデータ) (2021-06-01T19:19:49Z) - Continuous Weight Balancing [0.0]
高度に不均衡あるいは歪んだ特徴を有する問題に対して,試料重みを簡易に選択する手法を提案する。
推定ソースと指定されたターゲット分布間の転送関数からサンプルウェイトを導出します。
本手法は回帰処理と分類処理の両方において非重み付きモデルと離散重み付きモデルの両方に優れる。
論文 参考訳(メタデータ) (2021-03-30T18:03:12Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z) - Interpolation and Learning with Scale Dependent Kernels [91.41836461193488]
非パラメトリックリッジレス最小二乗の学習特性について検討する。
スケール依存カーネルで定義される推定器の一般的な場合を考える。
論文 参考訳(メタデータ) (2020-06-17T16:43:37Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z) - The Heavy-Tail Phenomenon in SGD [7.366405857677226]
最小損失のHessianの構造に依存すると、SGDの反復はエンフェビーテールの定常分布に収束する。
深層学習におけるSGDの行動に関する知見に分析結果を変換する。
論文 参考訳(メタデータ) (2020-06-08T16:43:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。