論文の概要: Generalized Stable Weights via Neural Gibbs Density
- arxiv url: http://arxiv.org/abs/2211.07533v1
- Date: Mon, 14 Nov 2022 17:03:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-11-15 16:36:03.925245
- Title: Generalized Stable Weights via Neural Gibbs Density
- Title(参考訳): ニューラルギブズ密度による一般化安定度
- Authors: Yoshiaki Kitazawa
- Abstract要約: 因果効果を推定するための一般化バランスウェイト法を提案する。
ウェイトはバックプロパゲーションによってトレーニング可能であり、ニューラルネットワークアルゴリズムを用いてウェイトを推定する方法を提供する。
提案手法は,既存のディープラーニングライブラリで実装が容易であり,その重み付けをほとんどの最先端の教師付きアルゴリズムで利用することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a generalized balancing weight method fully available for
estimating causal effects for an arbitrary mixture of discrete and continuous
interventions. Our weights are trainable through back-propagation, and we give
a method for estimating the weights via neural network algorithms. In addition,
we also provide a method to measure the performance of our weights by
estimating the mutual information for the balanced distribution. Our method is
easy to implement with any present deep learning libraries, and the weights
from it can be used in most state-of-art supervised algorithms.
- Abstract(参考訳): 離散的および連続的な介入の任意の混合に対する因果効果を推定するための一般化されたバランスウェイト法を提案する。
我々の重みはバックプロパゲーションによってトレーニング可能であり、ニューラルネットワークアルゴリズムによって重みを推定する方法を提供する。
また、バランスの取れた分布の相互情報を推定することにより、ウェイトの性能を測定する方法も提供する。
本手法は,既存の深層学習ライブラリでも容易に実装でき,その重み付けをほとんどの教師付きアルゴリズムで利用することができる。
関連論文リスト
- Multivariate root-n-consistent smoothing parameter free matching estimators and estimators of inverse density weighted expectations [51.000851088730684]
我々は、パラメトリックな$sqrt n $-rateで収束する、最も近い隣人の新しい修正とマッチング推定器を開発する。
我々は,非パラメトリック関数推定器は含まないこと,特に標本サイズ依存パラメータの平滑化には依存していないことを強調する。
論文 参考訳(メタデータ) (2024-07-11T13:28:34Z) - Nearest Neighbor Sampling for Covariate Shift Adaptation [7.940293148084844]
重みを推定しない新しい共変量シフト適応法を提案する。
基本的な考え方は、ソースデータセットの$k$-nearestの隣人によってラベル付けされたラベル付けされていないターゲットデータを直接扱うことだ。
実験の結果, 走行時間を大幅に短縮できることがわかった。
論文 参考訳(メタデータ) (2023-12-15T17:28:09Z) - Anomaly Detection with Variance Stabilized Density Estimation [49.46356430493534]
本稿では, 観測試料の確率を最大化するための分散安定化密度推定問題を提案する。
信頼性の高い異常検知器を得るために,分散安定化分布を学習するための自己回帰モデルのスペクトルアンサンブルを導入する。
我々は52のデータセットで広範なベンチマークを行い、我々の手法が最先端の結果につながることを示した。
論文 参考訳(メタデータ) (2023-06-01T11:52:58Z) - Augmented balancing weights as linear regression [3.877356414450364]
自動脱バイアス機械学習(AutoDML)としても知られる拡張バランスウェイトの特徴を新たに提供する。
拡張推定器は、元の結果モデルから得られる係数と、不注意な通常の最小二乗(OLS)から得られる係数を同じデータに組み合わせた単一の線形モデルと等価であることを示す。
私たちのフレームワークは、この人気の高い推定器のクラスにブラックボックスを開きます。
論文 参考訳(メタデータ) (2023-04-27T21:53:54Z) - Learning to Re-weight Examples with Optimal Transport for Imbalanced
Classification [74.62203971625173]
不均衡データは、ディープラーニングに基づく分類モデルに課題をもたらす。
不均衡なデータを扱うための最も広く使われているアプローチの1つは、再重み付けである。
本稿では,分布の観点からの最適輸送(OT)に基づく新しい再重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-08-05T01:23:54Z) - Heavy-tailed Streaming Statistical Estimation [58.70341336199497]
ストリーミング$p$のサンプルから重み付き統計推定の課題を考察する。
そこで我々は,傾きの雑音に対して,よりニュアンスな条件下での傾きの傾きの低下を設計し,より詳細な解析を行う。
論文 参考訳(メタデータ) (2021-08-25T21:30:27Z) - Continuous Weight Balancing [0.0]
高度に不均衡あるいは歪んだ特徴を有する問題に対して,試料重みを簡易に選択する手法を提案する。
推定ソースと指定されたターゲット分布間の転送関数からサンプルウェイトを導出します。
本手法は回帰処理と分類処理の両方において非重み付きモデルと離散重み付きモデルの両方に優れる。
論文 参考訳(メタデータ) (2021-03-30T18:03:12Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z) - Interpolation and Learning with Scale Dependent Kernels [91.41836461193488]
非パラメトリックリッジレス最小二乗の学習特性について検討する。
スケール依存カーネルで定義される推定器の一般的な場合を考える。
論文 参考訳(メタデータ) (2020-06-17T16:43:37Z) - The Heavy-Tail Phenomenon in SGD [7.366405857677226]
最小損失のHessianの構造に依存すると、SGDの反復はエンフェビーテールの定常分布に収束する。
深層学習におけるSGDの行動に関する知見に分析結果を変換する。
論文 参考訳(メタデータ) (2020-06-08T16:43:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。