論文の概要: A Robustness Analysis of Blind Source Separation
- arxiv url: http://arxiv.org/abs/2303.10104v1
- Date: Fri, 17 Mar 2023 16:30:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 13:48:27.507842
- Title: A Robustness Analysis of Blind Source Separation
- Title(参考訳): ブラインド音源分離のロバスト性解析
- Authors: Alexander Schell
- Abstract要約: ブラインドソース分離(BSS)は、変換$f$が可逆であるが未知であるという条件の下で、その混合である$X=f(S)$から観測されていない信号を復元することを目的としている。
このような違反を分析し、その影響を$X$から$S$のブラインドリカバリに与える影響を定量化するための一般的なフレームワークを提案する。
定義された構造的仮定からの偏差に対する一般的なBSS溶出は、明示的な連続性保証という形で、利益的に分析可能であることを示す。
- 参考スコア(独自算出の注目度): 91.3755431537592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Blind source separation (BSS) aims to recover an unobserved signal $S$ from
its mixture $X=f(S)$ under the condition that the effecting transformation $f$
is invertible but unknown. As this is a basic problem with many practical
applications, a fundamental issue is to understand how the solutions to this
problem behave when their supporting statistical prior assumptions are
violated. In the classical context of linear mixtures, we present a general
framework for analysing such violations and quantifying their impact on the
blind recovery of $S$ from $X$. Modelling $S$ as a multidimensional stochastic
process, we introduce an informative topology on the space of possible causes
underlying a mixture $X$, and show that the behaviour of a generic BSS-solution
in response to general deviations from its defining structural assumptions can
be profitably analysed in the form of explicit continuity guarantees with
respect to this topology. This allows for a flexible and convenient
quantification of general model uncertainty scenarios and amounts to the first
comprehensive robustness framework for BSS. Our approach is entirely
constructive, and we demonstrate its utility with novel theoretical guarantees
for a number of statistical applications.
- Abstract(参考訳): blind source separation (bss) は、影響変換 $f$ が可逆だが未知であるという条件の下で、その混合 $x=f(s)$ から観測されていない信号 $s$ を回復することを目的としている。
これは多くの実用的応用における基本的な問題であるため、この問題の解法が統計的事前仮定に反した場合にどのように振る舞うかを理解することが根本的な問題である。
古典的な線形混合の文脈では、そのような違反を分析し、その影響を$X$から$S$の盲点回復に与える影響を定量化するための一般的な枠組みを示す。
多次元確率過程としての$s$ のモデル化では、混合 $x$ の根底にある可能な原因の空間上の情報的トポロジーを導入し、構造的仮定から一般の偏差に対応する一般的なbss解の振る舞いを、このトポロジーに関して明示的な連続性保証の形で、経済的に解析できることを示す。
これにより、汎用モデルの不確実性シナリオのフレキシブルで便利な定量化が可能になり、BSSにとって初めての包括的な堅牢性フレームワークとなる。
我々のアプローチは完全に構成的であり、多くの統計応用に対する新しい理論的保証によってその有用性を実証する。
関連論文リスト
- ProDepth: Boosting Self-Supervised Multi-Frame Monocular Depth with Probabilistic Fusion [17.448021191744285]
多フレーム単分子深度推定は、静的シーンの仮定の下で連続するフレーム間の幾何的整合性に依存する。
動的シーンにおける移動物体の存在は必然的に不整合を引き起こし、トレーニング中に複数のフレームの特徴マッチングと誤解を招く。
本稿では,確率論的アプローチを用いて動的オブジェクトによるミスマッチ問題に効果的に対処するProDepthという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-12T14:37:49Z) - Universal generalization guarantees for Wasserstein distributionally robust models [10.036727981085223]
本稿では,非滑らかな解析理論と古典的な集中結果を組み合わせた新しい証明手法を提案する。
我々のアプローチは、(二重)正則化を含む分布的に頑健な問題を最近のワッサーシュタイン/シンクホーンに拡張するのに十分である。
論文 参考訳(メタデータ) (2024-02-19T09:27:47Z) - Equivalence of the Empirical Risk Minimization to Regularization on the Family of f-Divergences [45.935798913942904]
経験的リスク最小化の解決策として、$f$-divergence regularization (ERM-$f$DR) を挙げる。
関数の特定の選択に対する解の例は、$f$である。
論文 参考訳(メタデータ) (2024-02-01T11:12:00Z) - Mean-field Analysis of Generalization Errors [1.1344265020822928]
KL-正則化経験的リスク最小化問題を考察し、一般化誤差収束率(英語版)が$n$のサンプルでトレーニングする場合は$mathcalO (1/n)$であるような一般的な条件を確立する。
平均場状態における一層ニューラルネットワークによる教師あり学習の文脈では、これらの条件は、損失と活性化関数に対する適切な積分性と規則性仮定に反映される。
論文 参考訳(メタデータ) (2023-06-20T15:49:09Z) - A Relational Intervention Approach for Unsupervised Dynamics
Generalization in Model-Based Reinforcement Learning [113.75991721607174]
同じ環境に属する2つの推定$hatz_i, hatz_j$の確率を推定するための介入予測モジュールを導入する。
提案手法により推定される$hatZ$は,従来の方法よりも冗長な情報が少ないことを実証的に示す。
論文 参考訳(メタデータ) (2022-06-09T15:01:36Z) - On the Pitfalls of Heteroscedastic Uncertainty Estimation with
Probabilistic Neural Networks [23.502721524477444]
このアプローチがいかにして非常に貧弱だが安定な推定に繋がるかを示す合成例を示す。
問題を悪化させる特定の条件とともに、犯人をログライクな損失とみなす。
我々は、損失に対する各データポイントの寄与を、$beta$-exponentiated variance estimateによって重み付けする、$beta$-NLLと呼ばれる別の定式化を提案する。
論文 参考訳(メタデータ) (2022-03-17T08:46:17Z) - Benign Underfitting of Stochastic Gradient Descent [72.38051710389732]
本研究では,適切な学習データを得ることで,一般化性能を実現する「従来型」学習ルールとして,勾配降下度(SGD)がどの程度理解されるかを検討する。
類似現象が起こらない近縁な交換SGDを解析し、その集団リスクが実際に最適な速度で収束することを証明する。
論文 参考訳(メタデータ) (2022-02-27T13:25:01Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - A general sample complexity analysis of vanilla policy gradient [101.16957584135767]
政策勾配(PG)は、最も一般的な強化学習(RL)問題の1つである。
PG軌道の「バニラ」理論的理解は、RL問題を解く最も一般的な方法の1つである。
論文 参考訳(メタデータ) (2021-07-23T19:38:17Z) - Posterior Differential Regularization with f-divergence for Improving
Model Robustness [95.05725916287376]
クリーン入力とノイズ入力のモデル後部差を規則化する手法に着目する。
後微分正則化を$f$-divergencesの族に一般化する。
実験の結果, 後方微分を$f$-divergenceで正規化することで, モデルロバスト性の向上が期待できることがわかった。
論文 参考訳(メタデータ) (2020-10-23T19:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。