論文の概要: deepSELF: An Open Source Deep Self End-to-End Learning Framework
- arxiv url: http://arxiv.org/abs/2005.06993v1
- Date: Mon, 11 May 2020 13:50:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-04 21:04:28.832421
- Title: deepSELF: An Open Source Deep Self End-to-End Learning Framework
- Title(参考訳): DeepSELF: オープンソースのDeep Self-to-End Learningフレームワーク
- Authors: Tomoya Koike and Kun Qian and Bj\"orn W. Schuller and Yoshiharu
Yamamoto
- Abstract要約: Deep Self End-to-end Learning Framework(ディープ・セルフ・エンド・ツー・エンド・ラーニング・フレームワーク)は、マルチモーダル信号のためのディープ・セルフ・エンド・エンド・ラーニング・フレームワークのツールキットである。
画像、オーディオ、シングルチャネルまたはマルチチャネルセンサーデータなど、さまざまなマルチモーダル信号の分析に使用できる。
- 参考スコア(独自算出の注目度): 6.840797108900677
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce an open-source toolkit, i.e., the deep Self End-to-end Learning
Framework (deepSELF), as a toolkit of deep self end-to-end learning framework
for multi-modal signals. To the best of our knowledge, it is the first public
toolkit assembling a series of state-of-the-art deep learning technologies.
Highlights of the proposed deepSELF toolkit include: First, it can be used to
analyse a variety of multi-modal signals, including images, audio, and single
or multi-channel sensor data. Second, we provide multiple options for
pre-processing, e.g., filtering, or spectrum image generation by Fourier or
wavelet transformation. Third, plenty of topologies in terms of NN, 1D/2D/3D
CNN, and RNN/LSTM/GRU can be customised and a series of pretrained 2D CNN
models, e.g., AlexNet, VGGNet, ResNet can be used easily. Last but not least,
above these features, deepSELF can be flexibly used not only as a single model
but also as a fusion of such.
- Abstract(参考訳): 本稿では,マルチモーダル信号のためのディープ・セルフ・エンド・ツー・エンド学習フレームワークのツールキットとして,ディープ・セルフ・エンド・ツー・エンド学習フレームワーク(deep self)を提案する。
私たちの知る限りでは、これは一連の最先端のディープラーニング技術を組み立てる最初の公開ツールキットです。
提案されたDeepSELFツールキットのハイライトは以下のとおりである。 まず、イメージ、オーディオ、シングルまたはマルチチャネルセンサーデータを含む、さまざまなマルチモーダル信号の分析に使用できる。
第2に、フーリエ変換やウェーブレット変換によるフィルタリングやスペクトル画像生成など、前処理の複数のオプションを提供する。
第3に、NN、1D/2D/3D CNN、RNN/LSTM/GRUといった多くのトポロジがカスタマイズ可能であり、AlexNet、VGGNet、ResNetといった事前訓練された2D CNNモデルも容易に利用できる。
最後に、これらの機能の上に、DeepSELFは単一のモデルとしてだけでなく、それらの融合としても柔軟に使用できる。
関連論文リスト
- An Advanced Deep Learning Based Three-Stream Hybrid Model for Dynamic Hand Gesture Recognition [1.7985212575295124]
本稿では,RGBピクセルとスケルトンベースの特徴を組み合わせた3ストリームハイブリッドモデルを提案する。
手順では、拡張を含むデータセットを前処理し、回転、翻訳、独立系をスケールしました。
主に,画素ベースの深層学習機能とpos推定ベースの積み重ね深層学習機能を利用して,強力な特徴ベクトルを作成した。
論文 参考訳(メタデータ) (2024-08-15T09:05:00Z) - SODAWideNet -- Salient Object Detection with an Attention augmented Wide
Encoder Decoder network without ImageNet pre-training [3.66237529322911]
我々は、ImageNet事前トレーニングなしで、Salient Object Detectionを直接訓練したスクラッチからニューラルネットワークを開発することを検討する。
本稿では,Salient Object Detection のためのエンコーダデコーダ型ネットワーク SODAWideNet を提案する。
SODAWideNet-S (3.03M) と SODAWideNet (9.03M) の2つの変種は、5つのデータセット上の最先端モデルと競合する性能を達成する。
論文 参考訳(メタデータ) (2023-11-08T16:53:44Z) - YATO: Yet Another deep learning based Text analysis Open toolkit [14.094787723036797]
YATOは、ディープラーニングを用いたテキスト分析のための使いやすいツールキットである。
広く使われている機能のフリーの組み合わせをサポートする。
YATOは最先端のNLPモデルの高速な再現と改良を容易にする。
論文 参考訳(メタデータ) (2022-09-28T07:25:04Z) - Pushing the Limits of Simple Pipelines for Few-Shot Learning: External
Data and Fine-Tuning Make a Difference [74.80730361332711]
コンピュータビジョンにおいて、ほとんどショット学習は重要かつトピック的な問題である。
単純なトランスフォーマーベースのパイプラインは、標準ベンチマークで驚くほど優れたパフォーマンスが得られることを示す。
論文 参考訳(メタデータ) (2022-04-15T02:55:58Z) - Multi-level Second-order Few-shot Learning [111.0648869396828]
教師付きまたは教師なしの少数ショット画像分類と少数ショット動作認識のためのマルチレベル2次数列学習ネットワーク(MlSo)を提案する。
我々は、パワーノーマライズされた二階学習者ストリームと、複数のレベルの視覚的抽象化を表現する機能を組み合わせた、いわゆる2階学習者ストリームを活用している。
我々は,Omniglot, mini-ImageNet, tiered-ImageNet, Open MIC, CUB Birds, Stanford Dogs, Cars, HMDB51, UCF101, mini-MITなどのアクション認識データセットなどの標準データセットに対して,優れた結果を示す。
論文 参考訳(メタデータ) (2022-01-15T19:49:00Z) - Global Filter Networks for Image Classification [90.81352483076323]
本稿では,対数線形複雑度を持つ周波数領域における長期空間依存性を学習する,概念的に単純だが計算効率のよいアーキテクチャを提案する。
この結果から,GFNetはトランスフォーマー型モデルやCNNの効率,一般化能力,堅牢性において,非常に競争力のある代替手段となる可能性が示唆された。
論文 参考訳(メタデータ) (2021-07-01T17:58:16Z) - MutualNet: Adaptive ConvNet via Mutual Learning from Different Model
Configurations [51.85020143716815]
MutualNetは、リソース制約の多様なセットで実行できる単一のネットワークを訓練するために提案します。
提案手法は,様々なネットワーク幅と入力解像度を持つモデル構成のコホートを訓練する。
MutualNetは、さまざまなネットワーク構造に適用できる一般的なトレーニング方法論です。
論文 参考訳(メタデータ) (2021-05-14T22:30:13Z) - Compiling ONNX Neural Network Models Using MLIR [51.903932262028235]
本稿では,深層ニューラルネットワークモデルの推論のためのコードを生成するonnx-mlirコンパイラについて予備報告を行う。
Onnx-mlirは、最近LLVMプロジェクトに統合されたMulti-Level Intermediate Representation (MLIR)インフラストラクチャに依存している。
論文 参考訳(メタデータ) (2020-08-19T05:28:08Z) - Deep Network Ensemble Learning applied to Image Classification using CNN
Trees [1.8782750537161614]
本稿では,複数の深層ネットワークを用いた簡易,逐次,効率的,アンサンブル学習手法を提案する。
アンサンブルで使用されるディープネットワークはResNet50である。
当社のアプローチは、ImageNetデータセット上のすべての実験において、ベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-07-23T07:58:25Z) - The Microsoft Toolkit of Multi-Task Deep Neural Networks for Natural
Language Understanding [97.85957811603251]
MT-DNNはオープンソースの自然言語理解(NLU)ツールキットであり、研究者や開発者がカスタマイズされたディープラーニングモデルを訓練しやすくする。
PyTorchとTransformersをベースとして開発されたMT-DNNは、幅広いNLUタスクの迅速なカスタマイズを容易にするように設計されている。
MT-DNNのユニークな特徴は、対戦型マルチタスク学習パラダイムを用いた堅牢で移動可能な学習のサポートである。
論文 参考訳(メタデータ) (2020-02-19T03:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。