論文の概要: Signal Decomposition Using Masked Proximal Operators
- arxiv url: http://arxiv.org/abs/2202.09338v1
- Date: Fri, 18 Feb 2022 18:05:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-21 15:34:24.136383
- Title: Signal Decomposition Using Masked Proximal Operators
- Title(参考訳): Masked Proximal Operator を用いた信号分解
- Authors: Bennet E. Meyers and Stephen P. Boyd
- Abstract要約: 本稿では,ベクトル時系列信号を異なる特徴を持つ成分に分解する問題について考察する。
我々は、コンポーネントが損失関数(制約を含む)によって定義される、単純で一般的なフレームワークを提案する。
成分クラス損失関数が凸であるときに最適分解を求める2つの分散手法を与える。
- 参考スコア(独自算出の注目度): 9.267365602872134
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We consider the well-studied problem of decomposing a vector time series
signal into components with different characteristics, such as smooth,
periodic, nonnegative, or sparse. We propose a simple and general framework in
which the components are defined by loss functions (which include constraints),
and the signal decomposition is carried out by minimizing the sum of losses of
the components (subject to the constraints). When each loss function is the
negative log-likelihood of a density for the signal component, our method
coincides with maximum a posteriori probability (MAP) estimation; but it also
includes many other interesting cases. We give two distributed optimization
methods for computing the decomposition, which find the optimal decomposition
when the component class loss functions are convex, and are good heuristics
when they are not. Both methods require only the masked proximal operator of
each of the component loss functions, a generalization of the well-known
proximal operator that handles missing entries in its argument. Both methods
are distributed, i.e., handle each component separately. We derive tractable
methods for evaluating the masked proximal operators of some loss functions
that, to our knowledge, have not appeared in the literature.
- Abstract(参考訳): 本稿では,ベクトル時系列信号をスムーズ,周期的,非負,スパースといった異なる特徴を持つ成分に分解する問題について考察する。
本稿では,コンポーネントが損失関数(制約を含む)によって定義される簡易で汎用的なフレームワークを提案し,コンポーネントの損失の総和を最小化して信号分解を行う(制約を対象とする)。
各損失関数が信号成分の密度の負の対数類似度である場合、本手法は最大後続確率(MAP)推定と一致するが、他の多くの興味深いケースも含む。
本研究では,成分クラス損失関数が凸である場合の最適分解を見出す分解計算のための2つの分散最適化法を提案する。
どちらの方法も、各成分損失関数のマスク付き近位演算子のみを必要とするが、これは引数の欠落したエントリを扱うよく知られた近位演算子の一般化である。
どちらのメソッドも分散しており、各コンポーネントを別々に扱う。
本論文では,損失関数のマスク付き近位演算子を評価するための抽出可能な手法について述べる。
関連論文リスト
- EnsLoss: Stochastic Calibrated Loss Ensembles for Preventing Overfitting in Classification [1.3778851745408134]
経験的リスク最小化フレームワーク内で損失関数を結合する新しいアンサンブル手法,すなわちEnsLossを提案する。
まず、損失のCC条件を損失導関数に変換し、明示的な損失関数の必要性を回避した。
理論的には、我々のアプローチの統計的一貫性を確立し、その利点に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-09-02T02:40:42Z) - Binary Losses for Density Ratio Estimation [2.512309434783062]
2つの確率密度の比率を推定することは、機械学習と統計学における中心的な問題である。
本稿では,大きな値の正確な推定を優先する損失関数など,特定の特性を持つ損失関数を構築するための簡単なレシピを提案する。
これはロジスティック損失やロジスティック損失などの古典的損失関数とは対照的であり、小さな値の正確な推定を優先する。
論文 参考訳(メタデータ) (2024-07-01T15:24:34Z) - Triple Component Matrix Factorization: Untangling Global, Local, and Noisy Components [13.989390077752232]
ノイズの多いデータから特徴抽出の共通点と特異点の問題を解く。
問題の複雑な性質にもかかわらず、対応するKarushKuhn-Tuckerアルゴリズムを解くことでテイラー級数の特徴付けを行う。
ビデオセグメンテーションと異常検出の数値実験は、TCMFの優れた特徴抽出能力を浮き彫りにした。
論文 参考訳(メタデータ) (2024-03-21T14:41:12Z) - On the Error-Propagation of Inexact Hotelling's Deflation for Principal Component Analysis [8.799674132085935]
本稿では,不正確なHotellingのデフレ手法の誤差伝搬を数学的に特徴づける。
エラーがどのように進行し、その後の主成分推定に影響を及ぼすかを明確に特徴づける。
論文 参考訳(メタデータ) (2023-10-06T14:33:21Z) - Mitigating the Effect of Incidental Correlations on Part-based Learning [50.682498099720114]
部分ベースの表現は、より解釈可能で、限られたデータでより一般化できる。
パートベース表現のための2つの革新的な正規化手法を提案する。
我々は、ベンチマークデータセット上の数ショットの学習タスクに対して、最先端(SoTA)パフォーマンスを示す。
論文 参考訳(メタデータ) (2023-09-30T13:44:48Z) - Learning Unnormalized Statistical Models via Compositional Optimization [73.30514599338407]
実データと人工雑音のロジスティックな損失として目的を定式化することにより, ノイズコントラスト推定(NCE)を提案する。
本稿では,非正規化モデルの負の対数類似度を最適化するための直接的アプローチについて検討する。
論文 参考訳(メタデータ) (2023-06-13T01:18:16Z) - Gleo-Det: Deep Convolution Feature-Guided Detector with Local Entropy
Optimization for Salient Points [5.955667705173262]
本稿では, 深い畳み込み特徴のガイダンスを伴い, 繰り返し可能性の要求に基づき, きめ細かな制約を実現することを提案する。
畳み込み特徴のガイダンスを用いて、正と負の両面からコスト関数を定義する。
論文 参考訳(メタデータ) (2022-04-27T12:40:21Z) - Asymmetric Loss Functions for Learning with Noisy Labels [82.50250230688388]
そこで本研究では,様々なノイズに対する雑音ラベルによる学習に頑健な,新しい損失関数,すなわちテクスティタ対称損失関数を提案する。
ベンチマークデータセットの実験結果は、非対称損失関数が最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2021-06-06T12:52:48Z) - Universal Online Convex Optimization Meets Second-order Bounds [74.0120666722487]
ユニバーサルオンライン凸最適化のための簡単な戦略を提案する。
主要なアイデアは、オリジナルのオンライン機能を処理するための専門家のセットを構築し、線形化された損失に対してメタアルゴリズムをデプロイすることである。
このようにして、私たちはブラックボックスの専門家として、既成のオンライン問題解決者をプラグインして、問題依存の後悔の限界を提供することができます。
論文 参考訳(メタデータ) (2021-05-08T11:43:49Z) - Supervised Learning: No Loss No Cry [51.07683542418145]
教師付き学習は最小化するために損失関数の仕様を必要とする。
本稿では,Kakade et al. (2011)のSLIsotronアルゴリズムを新しいレンズで再検討する。
損失を学習するための原則的な手順をいかに提供するかを示す。
論文 参考訳(メタデータ) (2020-02-10T05:30:52Z) - Unsupervised Learning of the Set of Local Maxima [105.60049730557706]
二つの関数が学習される: (i) バイナリ分類器である集合指標 c と (ii) 近くの2つの標本を与えられたコンパレータ関数 h は、どの標本が未知の関数 v のより高い値を持つかを予測する。
損失項は、すべてのトレーニングサンプル x が h に従って v の局所極大であり、c(x)=1 を満たすことを保証するために用いられる。
本稿では,従来の分類法よりも局所極大を指標関数として用いる方が効率的である例を示し,適切な一般化境界を導出する。
論文 参考訳(メタデータ) (2020-01-14T19:56:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。