論文の概要: Unified Gradient Reweighting for Model Biasing with Applications to
Source Separation
- arxiv url: http://arxiv.org/abs/2010.13228v1
- Date: Sun, 25 Oct 2020 21:41:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 05:18:54.919781
- Title: Unified Gradient Reweighting for Model Biasing with Applications to
Source Separation
- Title(参考訳): モデルバイアスのための統一勾配重み付けと音源分離への応用
- Authors: Efthymios Tzinis, Dimitrios Bralios, Paris Smaragdis
- Abstract要約: 本稿では,モデルの学習過程を偏り,一定の結果の分布に向かわせるための,単純で統一的な勾配再重み付け手法を提案する。
本手法を様々な音源分離タスクに適用し,モデルの動作点を異なる目的にシフトさせる。
我々のフレームワークは、ユーザーが最悪のパフォーマンスと平均パフォーマンスの間の堅牢性トレードオフを制御できるようにします。
- 参考スコア(独自算出の注目度): 27.215800308343322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent deep learning approaches have shown great improvement in audio source
separation tasks. However, the vast majority of such work is focused on
improving average separation performance, often neglecting to examine or
control the distribution of the results. In this paper, we propose a simple,
unified gradient reweighting scheme, with a lightweight modification to bias
the learning process of a model and steer it towards a certain distribution of
results. More specifically, we reweight the gradient updates of each batch,
using a user-specified probability distribution. We apply this method to
various source separation tasks, in order to shift the operating point of the
models towards different objectives. We demonstrate different parameterizations
of our unified reweighting scheme can be used towards addressing several
real-world problems, such as unreliable separation estimates. Our framework
enables the user to control a robustness trade-off between worst and average
performance. Moreover, we experimentally show that our unified reweighting
scheme can also be used in order to shift the focus of the model towards being
more accurate for user-specified sound classes or even towards easier examples
in order to enable faster convergence.
- Abstract(参考訳): 最近のディープラーニングアプローチでは、音源分離タスクが大幅に改善されている。
しかし、これらの作業の大部分は平均的な分離性能の向上に焦点を合わせており、しばしば結果の分布を検査または制御することを無視している。
本稿では,モデルの学習過程に偏りを生じさせ,一定の結果の分布に導出するための軽量な修正を施した,単純で統一的な勾配重み付け手法を提案する。
より具体的には、ユーザ特定確率分布を用いて各バッチの勾配更新を重み付けする。
この手法を様々なソース分離タスクに適用し,モデルの動作ポイントを異なる目的にシフトさせる。
我々は,信頼できない分離推定のような実世界の問題に対処するために,統一的な重み付けスキームの異なるパラメータ化を示す。
我々のフレームワークは、ユーザーが最悪のパフォーマンスと平均パフォーマンスの間の堅牢性トレードオフを制御できるようにする。
さらに,モデルの焦点をユーザ指定の音響クラスに向けるか,あるいはより簡単な例に向けて,より高速な収束を実現するために,統一的な再重み付け方式を応用できることを実験的に示す。
関連論文リスト
- Improving Predictor Reliability with Selective Recalibration [15.319277333431318]
リカレーションは、事前訓練されたモデルで信頼性の高い信頼度を推定する最も効果的な方法の1つである。
そこで我々は,選択モデルがユーザの選択比率を下げることを学ぶテキスト選択的リカレーションを提案する。
以上の結果から,選択的再校正は幅広い選択基準と再校正基準よりも,キャリブレーション誤差が著しく低いことが示唆された。
論文 参考訳(メタデータ) (2024-10-07T18:17:31Z) - Optimal Baseline Corrections for Off-Policy Contextual Bandits [61.740094604552475]
オンライン報酬指標の偏りのないオフライン推定を最適化する意思決定ポリシーを学習することを目指している。
学習シナリオにおける同値性に基づく単一のフレームワークを提案する。
我々のフレームワークは、分散最適非バイアス推定器の特徴付けを可能にし、それに対する閉形式解を提供する。
論文 参考訳(メタデータ) (2024-05-09T12:52:22Z) - Distributionally Robust Post-hoc Classifiers under Prior Shifts [31.237674771958165]
本研究では,クラスプライヤやグループプライヤの分布の変化による変化に頑健なトレーニングモデルの問題点について検討する。
本稿では,事前学習モデルからの予測に対するスケーリング調整を行う,非常に軽量なポストホック手法を提案する。
論文 参考訳(メタデータ) (2023-09-16T00:54:57Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Revisiting Consistency Regularization for Semi-Supervised Learning [80.28461584135967]
そこで我々は,FeatDistLossというシンプルな手法により,一貫性の規則化を改良したフレームワークを提案する。
実験結果から,本モデルは様々なデータセットや設定のための新しい技術状態を定義する。
論文 参考訳(メタデータ) (2021-12-10T20:46:13Z) - Deblurring via Stochastic Refinement [85.42730934561101]
条件付き拡散モデルに基づくブラインドデブロアリングのための代替フレームワークを提案する。
提案手法は,PSNRなどの歪み指標の点で競合する。
論文 参考訳(メタデータ) (2021-12-05T04:36:09Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。