論文の概要: Differentiable Segmentation of Sequences
- arxiv url: http://arxiv.org/abs/2006.13105v2
- Date: Mon, 18 Jan 2021 11:11:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 22:45:31.558406
- Title: Differentiable Segmentation of Sequences
- Title(参考訳): 配列の微分可能なセグメンテーション
- Authors: Erik Scharw\"achter and Jonathan Lennartz and Emmanuel M\"uller
- Abstract要約: 我々は、連続的なワープ関数の学習の進歩の上に構築し、双方向パワー(TSP)分布に基づく新しいワープ関数のファミリーを提案する。
我々の定式化は特別な場合として分割一般化線型モデルの重要なクラスを含む。
我々は、PoissonレグレッションによるCOVID-19の拡散をモデル化し、変化点検出タスクに適用し、概念ドリフトによる分類モデルを学習する。
- 参考スコア(独自算出の注目度): 2.1485350418225244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Segmented models are widely used to describe non-stationary sequential data
with discrete change points. Their estimation usually requires solving a mixed
discrete-continuous optimization problem, where the segmentation is the
discrete part and all other model parameters are continuous. A number of
estimation algorithms have been developed that are highly specialized for their
specific model assumptions. The dependence on non-standard algorithms makes it
hard to integrate segmented models in state-of-the-art deep learning
architectures that critically depend on gradient-based optimization techniques.
In this work, we formulate a relaxed variant of segmented models that enables
joint estimation of all model parameters, including the segmentation, with
gradient descent. We build on recent advances in learning continuous warping
functions and propose a novel family of warping functions based on the
two-sided power (TSP) distribution. TSP-based warping functions are
differentiable, have simple closed-form expressions, and can represent
segmentation functions exactly. Our formulation includes the important class of
segmented generalized linear models as a special case, which makes it highly
versatile. We use our approach to model the spread of COVID-19 with Poisson
regression, apply it on a change point detection task, and learn classification
models with concept drift. The experiments show that our approach effectively
learns all these tasks with standard algorithms for gradient descent.
- Abstract(参考訳): セグメンテーションモデルは、離散的な変化点を持つ非定常シーケンシャルデータを記述するために広く使われている。
これらの推定は通常、セグメンテーションが離散部分であり、他の全てのモデルパラメータが連続である混合離散連続最適化問題を解く必要がある。
特定のモデル仮定に高度に特化された多くの推定アルゴリズムが開発されている。
非標準アルゴリズムへの依存は、勾配に基づく最適化技術に批判的に依存する最先端のディープラーニングアーキテクチャにセグメントモデルを統合するのを難しくする。
本研究では,セグメント化を含む全てのモデルパラメータを勾配降下で共同で推定することのできるセグメンテーションモデルの緩和変種を定式化する。
我々は,近年の継続的ワーピング関数の学習の進歩を基盤として,両面パワー(TSP)分布に基づく新しいワーピング関数群を提案する。
TSPベースのワープ関数は微分可能であり、単純なクローズドフォーム式を持ち、セグメント関数を正確に表現することができる。
この定式化は、特別の場合として、セグメント化された一般化線形モデルの重要なクラスを含み、非常に多様である。
ポアソン回帰(poisson regression)によるcovid-19の拡散をモデル化し,変化点検出タスクに適用し,概念ドリフトを用いた分類モデルを学ぶ。
提案手法は,勾配降下のための標準アルゴリズムを用いて,これらのタスクを効果的に学習することを示す。
関連論文リスト
- Gradient Estimation and Variance Reduction in Stochastic and Deterministic Models [0.0]
この論文は制約のない非線形最適化問題を考察している。
このような問題の解決を可能にする鍵となる量である勾配そのものに着目する。
決定論と要素の双方に関わる問題の勾配を計算するための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-05-14T14:41:58Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Towards Better Certified Segmentation via Diffusion Models [62.21617614504225]
セグメンテーションモデルは敵の摂動に弱いため、医療や自動運転といった重要な意思決定システムでの使用を妨げます。
近年,理論的保証を得るためにガウス雑音を入力に加えることにより,セグメント化予測のランダム化が提案されている。
本稿では,ランダムな平滑化と拡散モデルを組み合わせたセグメンテーション予測の問題に対処する。
論文 参考訳(メタデータ) (2023-06-16T16:30:39Z) - Score-based Continuous-time Discrete Diffusion Models [102.65769839899315]
連続時間マルコフ連鎖を介して逆過程が認知されるマルコフジャンププロセスを導入することにより、拡散モデルを離散変数に拡張する。
条件境界分布の単純なマッチングにより、偏りのない推定器が得られることを示す。
提案手法の有効性を,合成および実世界の音楽と画像のベンチマークで示す。
論文 参考訳(メタデータ) (2022-11-30T05:33:29Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Scalable mixed-domain Gaussian process modeling and model reduction for longitudinal data [5.00301731167245]
混合領域共分散関数に対する基底関数近似スキームを導出する。
我々は,GPモデルの精度をランタイムのごく一部で正確に近似できることを示す。
また、より小さく、より解釈可能なモデルを得るためのスケーラブルなモデルリダクションワークフローを実証する。
論文 参考訳(メタデータ) (2021-11-03T04:47:37Z) - Differentiable Spline Approximations [48.10988598845873]
微分プログラミングは機械学習のスコープを大幅に強化した。
標準的な微分可能なプログラミング手法(autodiffなど)は、通常、機械学習モデルが微分可能であることを要求する。
この再設計されたヤコビアンを予測モデルにおける微分可能な「層」の形で活用することで、多様なアプリケーションの性能が向上することを示す。
論文 参考訳(メタデータ) (2021-10-04T16:04:46Z) - Kernel Clustering with Sigmoid-based Regularization for Efficient
Segmentation of Sequential Data [3.8326963933937885]
セグメント化は、データシーケンスを非線形で複雑な構造を持つ複数の重複しないセグメントに分割することを目的としている。
この問題を最適に解決するための一般的なカーネルは動的プログラミング(DP)である。
最適セグメンテーションを近似するために多くのアルゴリズムが提案されているが、それらの解の品質は保証されていない。
論文 参考訳(メタデータ) (2021-06-22T04:32:21Z) - Gaussian Process Latent Class Choice Models [7.992550355579791]
離散選択モデル(DCM)における確率的機械学習の非パラメトリッククラスを提案する。
提案モデルでは,GPを用いた行動同質クラスタ(ラテントクラス)に確率的に個人を割り当てる。
モデルは2つの異なるモード選択アプリケーションでテストされ、異なるLCCMベンチマークと比較される。
論文 参考訳(メタデータ) (2021-01-28T19:56:42Z) - Probabilistic Circuits for Variational Inference in Discrete Graphical
Models [101.28528515775842]
変分法による離散的グラフィカルモデルの推論は困難である。
エビデンス・ロウアーバウンド(ELBO)を推定するためのサンプリングに基づく多くの手法が提案されている。
Sum Product Networks (SPN) のような確率的回路モデルのトラクタビリティを活用する新しい手法を提案する。
選択的SPNが表現的変動分布として適していることを示し、対象モデルの対数密度が重み付けされた場合、対応するELBOを解析的に計算可能であることを示す。
論文 参考訳(メタデータ) (2020-10-22T05:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。