論文の概要: autrainer: A Modular and Extensible Deep Learning Toolkit for Computer Audition Tasks
- arxiv url: http://arxiv.org/abs/2412.11943v1
- Date: Mon, 16 Dec 2024 16:25:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:59:14.365738
- Title: autrainer: A Modular and Extensible Deep Learning Toolkit for Computer Audition Tasks
- Title(参考訳): autrainer: コンピュータ聴覚タスクのためのモジュール的で拡張可能なディープラーニングツールキット
- Authors: Simon Rampp, Andreas Triantafyllopoulos, Manuel Milling, Björn W. Schuller,
- Abstract要約: autrainerは、監査タスクのコンピュータトレーニングのためのPyTorchベースのツールキットである。
本稿では,その内部動作と重要な機能について概説する。
- 参考スコア(独自算出の注目度): 42.4526628515253
- License:
- Abstract: This work introduces the key operating principles for autrainer, our new deep learning training framework for computer audition tasks. autrainer is a PyTorch-based toolkit that allows for rapid, reproducible, and easily extensible training on a variety of different computer audition tasks. Concretely, autrainer offers low-code training and supports a wide range of neural networks as well as preprocessing routines. In this work, we present an overview of its inner workings and key capabilities.
- Abstract(参考訳): 本研究は,コンピュータオーディションタスクのための新しいディープラーニングトレーニングフレームワークであるAutrainerの重要な運用原理を紹介する。
autrainerはPyTorchベースのツールキットで、様々なコンピュータオーディションタスクの迅速で再現性があり、容易に拡張可能なトレーニングを可能にする。
具体的には、Autrainerはローコードトレーニングを提供し、幅広いニューラルネットワークと前処理ルーチンをサポートする。
本稿では,その内部動作と重要な機能について概説する。
関連論文リスト
- Deep Internal Learning: Deep Learning from a Single Input [88.59966585422914]
多くの場合、手元にある入力からネットワークをトレーニングする価値がある。
これは、トレーニングデータが少なく、多様性が大きい多くの信号および画像処理問題に特に関係している。
本研究の目的は,この2つの重要な方向に向けて,過去数年間に提案されてきた深層学習技術について報告することである。
論文 参考訳(メタデータ) (2023-12-12T16:48:53Z) - A Study of Autoregressive Decoders for Multi-Tasking in Computer Vision [93.90545426665999]
マルチモーダルコンピュータビジョンにおけるマルチタスク学習のための自動回帰デコーダについて詳しく検討する。
鍵となる発見は、凍結した事前訓練されたエンコーダの上で学んだ小さなデコーダが驚くほどうまく機能していることである。
これはデコーダに自然言語で事前訓練された視覚モデルと対話するように教えるものであると見なすことができる。
論文 参考訳(メタデータ) (2023-03-30T13:42:58Z) - On Efficient Transformer and Image Pre-training for Low-level Vision [74.22436001426517]
プレトレーニングは、ハイレベルコンピュータビジョンにおける多くの最先端の芸術である。
画像事前学習の詳細な研究について述べる。
低レベルのタスクでは,事前トレーニングが極めて異なる役割を担っています。
論文 参考訳(メタデータ) (2021-12-19T15:50:48Z) - Deep Learning Tools for Audacity: Helping Researchers Expand the
Artist's Toolkit [8.942168855247548]
本稿では,ニューラルネットワークをオープンソースオーディオ編集ソフトウェアであるAudacityに統合するソフトウェアフレームワークを提案する。
エンドユーザとニューラルネットワーク開発者の両方で、いくつかのユースケースを紹介します。
論文 参考訳(メタデータ) (2021-10-25T23:56:38Z) - Explaining Deep Learning Representations by Tracing the Training Process [10.774699463547439]
本稿では,ディープニューラルネットワークの決定を記述した新しい説明法を提案する。
本研究では,深層ネットワークの各層における中間表現がどのように洗練されているかを検討した。
提案手法は,説明として使用可能な,高度に代表的なトレーニングインスタンスを同定する。
論文 参考訳(メタデータ) (2021-09-13T11:29:04Z) - SpeechBrain: A General-Purpose Speech Toolkit [73.0404642815335]
SpeechBrainはオープンソースでオールインワンの音声ツールキットである。
ニューラル音声処理技術の研究開発を促進するために設計された。
幅広い音声ベンチマークにおいて、競争力や最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-06-08T18:22:56Z) - Meta-learning for downstream aware and agnostic pretraining [7.2051162210119495]
本稿では,メタラーニングを用いて,事前学習の各エピソードにおいて最も有意義な学習信号を提供するタスクを選択することを提案する。
本手法とその2つの変種である下流認識と下流認識事前学習のアルゴリズムについて論じる。
論文 参考訳(メタデータ) (2021-06-06T23:08:09Z) - Cockpit: A Practical Debugging Tool for Training Deep Neural Networks [27.96164890143314]
学習機械の内部動作をより深く観察することのできる機器のコレクションを提示する。
これらの機器は勾配分布と曲率に関する新しい高次情報を利用する。
論文 参考訳(メタデータ) (2021-02-12T16:28:49Z) - Parrot: Data-Driven Behavioral Priors for Reinforcement Learning [79.32403825036792]
そこで本研究では,実験で得られた複雑なインプット・アウトプット関係を事前に学習する手法を提案する。
RLエージェントが新規な動作を試す能力を阻害することなく、この学習が新しいタスクを迅速に学習するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2020-11-19T18:47:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。