論文の概要: The Costs of Reproducibility in Music Separation Research: a Replication of Band-Split RNN
- arxiv url: http://arxiv.org/abs/2603.09187v1
- Date: Tue, 10 Mar 2026 04:54:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.042386
- Title: The Costs of Reproducibility in Music Separation Research: a Replication of Band-Split RNN
- Title(参考訳): 音楽分離研究における再生可能性のコスト:バンド分割RNNのレプリケーション
- Authors: Paul Magron, Romain Serizel, Constance Douwes,
- Abstract要約: この点に関しては、BSRNN(Band-split Recurrent Neural Network)モデルが有望である。
残念ながら、完全なコードが利用できないため、簡単には再生できない。
本稿では,BSRNNを可能な限り再現する試みである。
- 参考スコア(独自算出の注目度): 24.79659407567392
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Music source separation is the task of isolating the instrumental tracks from a music song. Despite its spectacular recent progress, the trend towards more complex architectures and training protocols exacerbates reproducibility issues. The band-split recurrent neural networks (BSRNN) model is promising in this regard, since it yields close to state-of-the-art results on public datasets, and requires reasonable resources for training. Unfortunately, it is not straightforward to reproduce since its full code is not available. In this paper, we attempt to replicate BSRNN as closely as possible to the original paper through extensive experiments, which allows us to conduct a critical reflection on this reproducibility issue. Our contributions are three-fold. First, this study yields several insights on the model design and training pipeline, which sheds light on potential future improvements. In particular, since we were unsuccessful in reproducing the original results, we explore additional variants that ultimately yield an optimized BSRNN model, whose performance largely improves that of the original. Second, we discuss reproducibility issues from both methodological and practical perspectives. We notably underline how substantial time and energy costs could have been saved upon availability of the full pipeline. Third, our code and pre-trained models are released publicly to foster reproducible research. We hope that this study will contribute to spread awareness on the importance of reproducible research in the music separation community, and help promoting more transparent and sustainable practices.
- Abstract(参考訳): 音源分離は、楽曲から楽器のトラックを分離する作業である。
目覚ましい最近の進歩にもかかわらず、より複雑なアーキテクチャやトレーニングプロトコルへの傾向は再現性の問題を悪化させている。
この点に関して、バンド分割リカレントニューラルネットワーク(BSRNN)モデルは、公開データセットの最先端の結果に近くなり、トレーニングに適切なリソースを必要とするため、有望である。
残念ながら、完全なコードが利用できないため、簡単には再生できない。
本稿では,BSRNNを可能な限り広範囲に再現する試みを行い,再現性の問題に対する批判的な考察を可能にする。
私たちの貢献は3倍です。
まず、モデル設計とトレーニングパイプラインについていくつかの洞察を得る。
特に、我々は元の結果の再現に失敗したため、最終的に最適化されたBSRNNモデルが得られる追加の変種を探索し、その性能は元のモデルよりも大幅に向上した。
第2に,方法論的,実践的両面から再現性の問題について議論する。
完全なパイプラインが利用可能になったら、相当な時間とエネルギーコストを節約できたことを、特に強調します。
第3に、再現可能な研究を促進するために、コードと事前訓練されたモデルが公開されています。
本研究は,音楽分離コミュニティにおける再現可能な研究の重要性に対する認識の拡大に寄与し,より透明で持続可能な実践の促進に寄与することを期待している。
関連論文リスト
- On the Learning Dynamics of RLVR at the Edge of Competence [86.52481827737097]
検証可能な報酬(RLVR)による強化学習は、大規模な推論モデルにおける最近のブレークスルーの主要な要因である。
コンポジション推論タスクにおける変圧器のRLのトレーニング力学の理論を開発する。
論文 参考訳(メタデータ) (2026-02-16T16:03:08Z) - Automatic Classification of User Requirements from Online Feedback -- A Replication Study [0.0]
我々は、ユーザレビューから要件分類のための異なるディープラーニングモデルを評価する、以前のNLP4RE研究(ベースライン)を再現する。
公開ソースコードを用いて元の結果を再現し,ベースライン研究の外部的妥当性を高めるのに役立てた。
その結果,ベースラインディープラーニングモデルであるBERTとELMoが外部データセットに優れた性能を示し,GPT-4oは従来のベースライン機械学習モデルに匹敵する性能を示した。
論文 参考訳(メタデータ) (2025-07-29T06:52:27Z) - 100 Days After DeepSeek-R1: A Survey on Replication Studies and More Directions for Reasoning Language Models [58.98176123850354]
最近のDeepSeek-R1のリリースは、広く社会的影響をもたらし、言語モデルの明確な推論パラダイムを探求する研究コミュニティに熱意を喚起した。
リリースされたモデルの実装詳細は、DeepSeek-R1-Zero、DeepSeek-R1、蒸留された小型モデルなど、DeepSeekによって完全にオープンソース化されていない。
多くのレプリケーション研究は、DeepSeek-R1が達成した強力なパフォーマンスを再現することを目的として、同様のトレーニング手順と完全なオープンソースデータリソースを通じて、同等のパフォーマンスに到達している。
論文 参考訳(メタデータ) (2025-05-01T14:28:35Z) - Concise Reasoning via Reinforcement Learning [13.657506042120167]
我々は強化学習(RL)の中核的原則を再考する。
簡潔さと正確さの自然な相関関係を明らかにする。
RLトレーニングの二次段階の導入は、非常に小さな問題セットを用いて、思考の連鎖を著しく減少させることが示される。
論文 参考訳(メタデータ) (2025-04-07T15:35:54Z) - Reusing Embeddings: Reproducible Reward Model Research in Large Language Model Alignment without GPUs [58.18140409409302]
大規模言語モデル (LLM) は強化学習 (RL) を通じて構造化タスクに大きく進歩した。
チャットボットやコンテンツ生成といった幅広い分野にRLを適用することは、ユニークな課題だ。
埋め込み型報酬モデルを用いた既存の報酬モデルアンサンブル研究の再現事例について述べる。
論文 参考訳(メタデータ) (2025-02-04T19:37:35Z) - Noisy Self-Training with Synthetic Queries for Dense Retrieval [49.49928764695172]
合成クエリと組み合わせた,ノイズの多い自己学習フレームワークを提案する。
実験結果から,本手法は既存手法よりも一貫した改善が得られた。
我々の手法はデータ効率が良く、競争のベースラインより優れています。
論文 参考訳(メタデータ) (2023-11-27T06:19:50Z) - Self-Supervised Contrastive Learning for Robust Audio-Sheet Music
Retrieval Systems [3.997809845676912]
自己指導型コントラスト学習は、実際の音楽コンテンツからの注釈付きデータの不足を軽減することができることを示す。
クロスモーダルなピース識別の高レベルなタスクにスニペットを埋め込む。
本研究では,実際の音楽データが存在する場合,検索品質が30%から100%に向上することが観察された。
論文 参考訳(メタデータ) (2023-09-21T14:54:48Z) - ReDi: Efficient Learning-Free Diffusion Inference via Trajectory
Retrieval [68.7008281316644]
ReDiは学習不要なRetrievalベースの拡散サンプリングフレームワークである。
ReDi はモデル推論効率を 2 倍高速化することを示した。
論文 参考訳(メタデータ) (2023-02-05T03:01:28Z) - DeepZensols: Deep Natural Language Processing Framework [23.56171046067646]
この作業は、一貫した結果を再現できるフレームワークです。
自然言語処理(NLP)ディープラーニング(DL)モデルの作成、トレーニング、評価を行う手段を提供する。
論文 参考訳(メタデータ) (2021-09-08T01:16:05Z) - Research Reproducibility as a Survival Analysis [22.66983713481359]
我々は,論文のモデリングを生存分析問題として検討する。
生存率分析によって、過去の縦断データをよりよく説明できる新たな洞察を導きだす方法を示す。
論文 参考訳(メタデータ) (2020-12-17T20:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。