論文の概要: Parametric Neural Amp Modeling with Active Learning
- arxiv url: http://arxiv.org/abs/2509.26564v1
- Date: Tue, 30 Sep 2025 17:30:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.638246
- Title: Parametric Neural Amp Modeling with Active Learning
- Title(参考訳): 能動学習を用いたパラメトリックニューラルアンプモデリング
- Authors: Florian Grötschla, Longxiang Jiao, Luca A. Lanzendörfer, Roger Wattenhofer,
- Abstract要約: MUSHRAリスニングテストにより,75個のデータポイントを使用すれば,主要なオープンソース非パラメトリックアンプモデルであるNAMの知覚的品質と一致させることができることが明らかになった。
- 参考スコア(独自算出の注目度): 38.40457780873775
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce Panama, an active learning framework to train parametric guitar amp models end-to-end using a combination of an LSTM model and a WaveNet-like architecture. With \model, one can create a virtual amp by recording samples that are determined through an ensemble-based active learning strategy to minimize the amount of datapoints needed (i.e., amp knob settings). Our strategy uses gradient-based optimization to maximize the disagreement among ensemble models, in order to identify the most informative datapoints. MUSHRA listening tests reveal that, with 75 datapoints, our models are able to match the perceptual quality of NAM, the leading open-source non-parametric amp modeler.
- Abstract(参考訳): 我々は,LSTMモデルとWaveNetのようなアーキテクチャを組み合わせて,パラメトリックギターアンプモデルをエンドツーエンドでトレーニングする,アクティブな学習フレームワークであるPanaanaを紹介した。
\modelでは、アンサンブルベースのアクティブラーニング戦略によって決定されるサンプルを記録して、必要なデータポイント(amp knob設定)を最小化する仮想アンプを作成することができる。
我々の戦略は、最も情報性の高いデータポイントを特定するために、勾配に基づく最適化を用いてアンサンブルモデル間の不一致を最大化する。
MUSHRAリスニングテストでは,75個のデータポイントを使用すれば,主要なオープンソース非パラメトリックアンプモデルであるNAMの知覚的品質と一致させることができることがわかった。
関連論文リスト
- Parametric Neural Amp Modeling with Active Learning [18.95453617434051]
本稿では、WaveNetのようなアーキテクチャを用いて、エンドツーエンドのパラメトリックギターアンプモデルのトレーニングを行うためのアクティブラーニングフレームワークであるPANAMAを紹介する。
本研究では, 勾配に基づく最適化アルゴリズムを用いて, サンプルの最適なデータポイントを決定することができることを示す。
論文 参考訳(メタデータ) (2025-07-02T19:47:23Z) - StableLLaVA: Enhanced Visual Instruction Tuning with Synthesized
Image-Dialogue Data [129.92449761766025]
本稿では,視覚的インストラクションチューニングのための画像と対話を同期的に合成する新しいデータ収集手法を提案する。
このアプローチは生成モデルのパワーを活用し、ChatGPTとテキスト・ツー・イメージ生成モデルの能力とを結合する。
本研究は,各種データセットを対象とした総合的な実験を含む。
論文 参考訳(メタデータ) (2023-08-20T12:43:52Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [47.432215933099016]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Model ensemble instead of prompt fusion: a sample-specific knowledge
transfer method for few-shot prompt tuning [85.55727213502402]
我々は、ソースタスクのソフトプロンプトから知識を伝達することで、プロンプトチューニングにおける数ショットのパフォーマンスを改善することに集中する。
我々はソースモデル(SESoM)のサンプル固有アンサンブルを提案する。
SESoMは、ソースモデルが出力されるときに、ターゲットの各サンプルに対するソースモデルのコントリビューションを個別に調整することを学ぶ。
論文 参考訳(メタデータ) (2022-10-23T01:33:16Z) - Meta-Ensemble Parameter Learning [35.6391802164328]
本稿では,メタラーニング手法を用いて,単一モデルのパラメータを直接予測できるかどうかを考察する。
WeightFormerは、トランスフォーマーベースのモデルで、フォワードパスの層で生徒のネットワーク重みを予測できる。
論文 参考訳(メタデータ) (2022-10-05T00:47:24Z) - Decision Forest Based EMG Signal Classification with Low Volume Dataset
Augmented with Random Variance Gaussian Noise [51.76329821186873]
我々は6種類の手振りを限定的なサンプル数で分類できるモデルを作成し、より広い聴衆によく一般化する。
信号のランダムなバウンドの使用など、より基本的な手法のセットにアピールするが、これらの手法がオンライン環境で持てる力を示したいと考えている。
論文 参考訳(メタデータ) (2022-06-29T23:22:18Z) - Assemble Foundation Models for Automatic Code Summarization [9.53949558569201]
ニューラルネットワークに基づく自動コード要約のためのフレキシブルでロバストなアプローチを提案する。
CodeBERT や GPT-2 のような利用可能な基盤モデルを AdaMo という単一のモデルに組み立てる。
本稿では,知識伝達の観点から,連続事前学習と中間微調整という2つの適応型スキームを導入する。
論文 参考訳(メタデータ) (2022-01-13T21:38:33Z) - Iterative Semi-parametric Dynamics Model Learning For Autonomous Racing [2.40966076588569]
本稿では,ニューラルネットワークを用いた反復学習セミパラメトリックモデルを自律レースの課題に適用する。
我々のモデルは純粋にパラメトリックモデルよりも正確に学習でき、純粋に非パラメトリックモデルよりもより一般化できることを示す。
論文 参考訳(メタデータ) (2020-11-17T16:24:10Z) - Smaller World Models for Reinforcement Learning [0.5156484100374059]
ベクトル量子化変分オートエンコーダ(VQ-VAE)に基づく世界モデルのための新しいニューラルネットワークアーキテクチャを提案する。
モデルフリーPPOエージェントは、世界モデルからのシミュレーション体験に基づいて純粋に訓練される。
我々はSimPLeアルゴリズムに匹敵する性能を示したが、我々のモデルははるかに小さい。
論文 参考訳(メタデータ) (2020-10-12T15:02:41Z) - VaPar Synth -- A Variational Parametric Model for Audio Synthesis [78.3405844354125]
本稿では,条件付き変分オートエンコーダ(CVAE)を用いた変分パラメトリックシンセサイザVaPar Synthを提案する。
提案するモデルの性能は,ピッチを柔軟に制御した楽器音の再構成と生成によって実証する。
論文 参考訳(メタデータ) (2020-03-30T16:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。