論文の概要: On the Joint Minimization of Regularization Loss Functions in Deep Variational Bayesian Methods for Attribute-Controlled Symbolic Music Generation
- arxiv url: http://arxiv.org/abs/2511.07118v1
- Date: Mon, 10 Nov 2025 14:09:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.287787
- Title: On the Joint Minimization of Regularization Loss Functions in Deep Variational Bayesian Methods for Attribute-Controlled Symbolic Music Generation
- Title(参考訳): 属性制御されたシンボリック音楽生成のための深い変分ベイズ法における正規化損失関数の結合最小化について
- Authors: Matteo Pettenó, Alessandro Ilic Mezza, Alberto Bernardini,
- Abstract要約: 明示的な潜在変数モデルは、データ合成のための柔軟だが強力なフレームワークを提供する。
既存のアプローチは、両方の正規化目標を共同で最小化するのに苦労していることを示す。
適切な属性変換は、目標潜在次元の可制御性と正則化の両方を達成するのに有効であることを示す。
- 参考スコア(独自算出の注目度): 47.38557855930304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explicit latent variable models provide a flexible yet powerful framework for data synthesis, enabling controlled manipulation of generative factors. With latent variables drawn from a tractable probability density function that can be further constrained, these models enable continuous and semantically rich exploration of the output space by navigating their latent spaces. Structured latent representations are typically obtained through the joint minimization of regularization loss functions. In variational information bottleneck models, reconstruction loss and Kullback-Leibler Divergence (KLD) are often linearly combined with an auxiliary Attribute-Regularization (AR) loss. However, balancing KLD and AR turns out to be a very delicate matter. When KLD dominates over AR, generative models tend to lack controllability; when AR dominates over KLD, the stochastic encoder is encouraged to violate the standard normal prior. We explore this trade-off in the context of symbolic music generation with explicit control over continuous musical attributes. We show that existing approaches struggle to jointly minimize both regularization objectives, whereas suitable attribute transformations can help achieve both controllability and regularization of the target latent dimensions.
- Abstract(参考訳): 明示的な潜在変数モデルは、データ合成のための柔軟だが強力なフレームワークを提供し、生成因子の制御を可能にする。
これらのモデルは、さらに制約されるような、抽出可能な確率密度関数から引き出された潜伏変数により、潜伏空間をナビゲートすることで、出力空間の連続的かつ意味的にリッチな探索を可能にする。
構造的潜在表現は典型的には正則化損失関数の結合最小化によって得られる。
変動情報ボトルネックモデルでは、再構成損失とKLD(Kulback-Leibler Divergence)は、しばしば補助属性正規化(AR)損失と線形に結合される。
しかし、KLDとARのバランスは非常に微妙な問題であることが判明した。
KLDがARを支配している場合、生成モデルは制御性に欠ける傾向があり、ARがKLDを支配している場合、確率エンコーダは標準の通常の標準値に違反することを奨励される。
このトレードオフを,連続的な音楽属性を明示的に制御したシンボリック・ミュージック・ジェネレーションの文脈で検討する。
既存の手法は正規化の目的を両立させるのに苦労するが、適切な属性変換は目標潜在次元の可制御性と正則化の両方を達成するのに有効であることを示す。
関連論文リスト
- FreSca: Scaling in Frequency Space Enhances Diffusion Models [55.75504192166779]
本稿では,潜時拡散モデルにおける周波数制御について検討する。
本稿では,低周波成分と高周波成分にノイズ差を分解する新しいフレームワークFreScaを紹介する。
FreScaはモデルの再トレーニングやアーキテクチャの変更なしに動作し、モデルとタスクに依存しない制御を提供する。
論文 参考訳(メタデータ) (2025-04-02T22:03:11Z) - Stochastic Control for Fine-tuning Diffusion Models: Optimality, Regularity, and Convergence [19.484676783876306]
拡散モデルは生成モデリングの強力なツールとして登場してきた。
微調整拡散モデルのための制御フレームワークを提案する。
PI-FTは線形速度で大域収束することを示す。
論文 参考訳(メタデータ) (2024-12-24T04:55:46Z) - Variational Encoder-Decoders for Learning Latent Representations of Physical Systems [0.0]
本稿では,物理系のデータ駆動型低次元表現を学習するためのフレームワークを提案する。
地下水流動モデルの観測井における油圧応答のモデル化に成功した。
論文 参考訳(メタデータ) (2024-12-06T16:46:48Z) - Implicit Bias of Gradient Descent for Logistic Regression at the Edge of
Stability [69.01076284478151]
機械学習の最適化において、勾配降下(GD)はしばしば安定性の端(EoS)で動く
本稿では,EoS系における線形分離可能なデータに対するロジスティック回帰のための定数段差GDの収束と暗黙バイアスについて検討する。
論文 参考訳(メタデータ) (2023-05-19T16:24:47Z) - Score-based Causal Representation Learning with Interventions [54.735484409244386]
本稿では,潜在因果変数を間接的に観察する際の因果表現学習問題について検討する。
目的は、 (i) 未知の線形変換(スケーリングまで)を回復し、 (ii) 潜在変数の下の有向非巡回グラフ(DAG)を決定することである。
論文 参考訳(メタデータ) (2023-01-19T18:39:48Z) - GCVAE: Generalized-Controllable Variational AutoEncoder [0.0]
極めて低い復元誤差と高い絡み合いスコアのトレードオフを扱うための枠組みを提案する。
復元ネットワークにおける情報の最大化は、償却推論時の情報と等価であることを示す。
論文 参考訳(メタデータ) (2022-06-09T02:29:30Z) - Disentangling Generative Factors of Physical Fields Using Variational
Autoencoders [0.0]
本研究は,非線形次元低減のための変分オートエンコーダ (VAE) の利用について検討する。
不整合分解は解釈可能であり、生成的モデリングを含む様々なタスクに転送することができる。
論文 参考訳(メタデータ) (2021-09-15T16:02:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。