論文の概要: Continuous Weight Balancing
- arxiv url: http://arxiv.org/abs/2103.16591v1
- Date: Tue, 30 Mar 2021 18:03:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 14:46:25.705700
- Title: Continuous Weight Balancing
- Title(参考訳): 連続的重量バランス
- Authors: Daniel J. Wu, Avoy Datta
- Abstract要約: 高度に不均衡あるいは歪んだ特徴を有する問題に対して,試料重みを簡易に選択する手法を提案する。
推定ソースと指定されたターゲット分布間の転送関数からサンプルウェイトを導出します。
本手法は回帰処理と分類処理の両方において非重み付きモデルと離散重み付きモデルの両方に優れる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose a simple method by which to choose sample weights for problems
with highly imbalanced or skewed traits. Rather than naively discretizing
regression labels to find binned weights, we take a more principled approach --
we derive sample weights from the transfer function between an estimated source
and specified target distributions. Our method outperforms both unweighted and
discretely-weighted models on both regression and classification tasks. We also
open-source our implementation of this method
(https://github.com/Daniel-Wu/Continuous-Weight-Balancing) to the scientific
community.
- Abstract(参考訳): 高度に不均衡あるいは歪んだ特徴を有する問題に対して,試料重みを簡易に選択する手法を提案する。
重み付けされた重みを見つけるために回帰ラベルを鼻で識別する代わりに、より原理的なアプローチを採り、推定源と特定対象分布の間の伝達関数からサンプル重みを導出する。
本手法は回帰処理と分類処理の両方において非重み付きモデルと離散重み付きモデルの両方に優れる。
我々はまた、この手法の実装(https://github.com/Daniel-Wu/Continuous-Weight-Balancing)を科学コミュニティにオープンソース化しました。
関連論文リスト
- Aggregation Weighting of Federated Learning via Generalization Bound
Estimation [65.8630966842025]
フェデレートラーニング(FL)は通常、サンプル比率によって決定される重み付けアプローチを使用して、クライアントモデルパラメータを集約する。
上記の重み付け法を,各局所モデルの一般化境界を考慮した新しい戦略に置き換える。
論文 参考訳(メタデータ) (2023-11-10T08:50:28Z) - Value-aware Importance Weighting for Off-policy Reinforcement Learning [11.3798693158017]
重要度サンプリングは、強化学習における非政治予測の根底にある中心的な考え方である。
本研究では,非政治学習におけるサンプルの修正のために,より広範な重み付けを考察する。
このような重みの計算方法が導出され、結果として生じる重みの重要特性が詳細に説明される。
論文 参考訳(メタデータ) (2023-06-27T17:05:22Z) - Exploring Weight Balancing on Long-Tailed Recognition Problem [32.01426831450348]
クラスごとのサンプルサイズが重く歪んだ長いデータにおける認識問題の重要性が高まっている。
古典的正規化技術と2段階トレーニングを組み合わせた重みバランスが提案されている。
トレーニング段階ごとの神経崩壊とコーン効果に着目して重量バランスを解析した。
論文 参考訳(メタデータ) (2023-05-26T01:45:19Z) - Generalized Balancing Weights via Deep Neural Networks [0.0]
観測データから因果効果を推定することは、多くの領域において中心的な問題である。
離散的および連続的な介入の任意の混合による因果効果を推定するために、一般化バランスウェイト、ニューラルバランスウェイト(NBW)を提案する。
論文 参考訳(メタデータ) (2022-11-14T17:03:56Z) - Adaptive Distribution Calibration for Few-Shot Learning with
Hierarchical Optimal Transport [78.9167477093745]
本稿では,新しいサンプルとベースクラス間の適応重み行列を学習し,新しい分布校正法を提案する。
標準ベンチマーク実験の結果,提案したプラグ・アンド・プレイモデルの方が競合する手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-10-09T02:32:57Z) - Residual-Quantile Adjustment for Adaptive Training of Physics-informed
Neural Network [2.5769426017309915]
本稿では, 学習効率向上のためのサンプルの適応選択におけるボトルネックは, 数値残差の尾分布の挙動であることを示す。
トレーニングサンプル毎の重量選択に優れたResidual-Quantile Adjustment (RQA)法を提案する。
実験結果から,提案手法は様々な偏微分方程式(PDE)問題において,適応的手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-09-09T12:39:38Z) - Learning to Re-weight Examples with Optimal Transport for Imbalanced
Classification [74.62203971625173]
不均衡データは、ディープラーニングに基づく分類モデルに課題をもたらす。
不均衡なデータを扱うための最も広く使われているアプローチの1つは、再重み付けである。
本稿では,分布の観点からの最適輸送(OT)に基づく新しい再重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-08-05T01:23:54Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z) - Counterfactual Representation Learning with Balancing Weights [74.67296491574318]
観察データによる因果推論の鍵は、それぞれの治療タイプに関連する予測的特徴のバランスを達成することである。
近年の文献では、この目標を達成するために表現学習を探求している。
因果効果を柔軟かつスケーラブルかつ正確に推定するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-10-23T19:06:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。