論文の概要: The Sockeye 2 Neural Machine Translation Toolkit at AMTA 2020
- arxiv url: http://arxiv.org/abs/2008.04885v1
- Date: Tue, 11 Aug 2020 17:42:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 11:27:29.384029
- Title: The Sockeye 2 Neural Machine Translation Toolkit at AMTA 2020
- Title(参考訳): Sockeye 2 Neural Machine Translation Toolkit at AMTA 2020
- Authors: Tobias Domhan, Michael Denkowski, David Vilar, Xing Niu, Felix Hieber,
Kenneth Heafield
- Abstract要約: Sockeye 2は、Sockye Neural Machine Translation (NMT)ツールキットの近代化および合理化版である。
MXNetのGluon APIを使って、コードベースを単純化する機能もある。
- 参考スコア(独自算出の注目度): 21.07292644483764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Sockeye 2, a modernized and streamlined version of the Sockeye
neural machine translation (NMT) toolkit. New features include a simplified
code base through the use of MXNet's Gluon API, a focus on state of the art
model architectures, distributed mixed precision training, and efficient CPU
decoding with 8-bit quantization. These improvements result in faster training
and inference, higher automatic metric scores, and a shorter path from research
to production.
- Abstract(参考訳): 本稿では,sockeye neural machine translation(nmt)ツールキットの近代化版であるsockeye 2を提案する。
新機能には、mxnetのgluon apiを使った単純化されたコードベース、アートモデルアーキテクチャの状態にフォーカス、分散混合精度トレーニング、そして8ビット量子化による効率的なcpuデコーディングが含まれる。
これらの改善は、より高速なトレーニングと推論、より高い自動測定スコア、研究から生産までの道の短さをもたらす。
関連論文リスト
- DeepGEMM: Accelerated Ultra Low-Precision Inference on CPU Architectures
using Lookup Tables [49.965024476651706]
DeepGEMMはSIMDハードウェア上で超高精度畳み込みニューラルネットワークを実行するためのルックアップテーブルベースのアプローチである。
実装は、x86プラットフォーム上で、対応する8ビット整数カーネルを最大1.74倍の性能で上回る。
論文 参考訳(メタデータ) (2023-04-18T15:13:10Z) - High-Precision Machine-Learning Based Indoor Localization with Massive
MIMO System [12.171983473119603]
2つの並列完全連結ニューラルネットワーク(FCNN)を持つMLベースの新しいローカライゼーションパイプラインを解析する。
実測シナリオでは,提案したパイプラインは,遅延情報と角情報を組み合わせることで,センチメートルレベルの精度を達成できる。
論文 参考訳(メタデータ) (2023-03-07T09:07:42Z) - Sub 8-Bit Quantization of Streaming Keyword Spotting Models for Embedded
Chipsets [7.5195830365852085]
本稿では,250Kパラメータのフィードフォワード,ストリーミング,ステートフリーなキーワードスポッティングモデルの全コンポーネントに対する,新しいサブ8ビット量子化対応トレーニングアルゴリズムを提案する。
大規模実験を行い、26,000時間の非特定生産、遠距離場および近距離場音声データをトレーニングする。
論文 参考訳(メタデータ) (2022-07-13T17:46:08Z) - Quality-Aware Decoding for Neural Machine Translation [64.24934199944875]
ニューラルネットワーク翻訳(NMT)のための品質認識復号法を提案する。
参照フリーおよび参照ベースMT評価における最近のブレークスルーを,様々な推論手法を用いて活用する。
品質認識復号化は、最先端の自動測定値と人的評価値の両方で、MAPベースの復号化を一貫して上回ります。
論文 参考訳(メタデータ) (2022-05-02T15:26:28Z) - Instant Neural Graphics Primitives with a Multiresolution Hash Encoding [67.33850633281803]
品質を犠牲にすることなく、より小さなネットワークを使用できる汎用的な新しい入力符号化を提案する。
小さなニューラルネットワークは、勾配降下によって値が最適化された訓練可能な特徴ベクトルの多分解能ハッシュテーブルによって拡張される。
数桁の高速化を実現し、高品質なニューラルネットワークプリミティブを数秒でトレーニングすることができる。
論文 参考訳(メタデータ) (2022-01-16T07:22:47Z) - YANMTT: Yet Another Neural Machine Translation Toolkit [33.96429439165039]
本稿では,オープンソースニューラルネットワーク翻訳(NMT)ツールキットであるYet Another Neural Machine Translation Toolkit(YANMTT)について述べる。
YANMTTは、大規模NMTモデルを事前訓練するための最小限のコードで問題に対処し、事前訓練されたパラメータを選択的に転送し、微調整し、翻訳を行い、可視化と分析のための表現と注意を抽出することを目的としている。
論文 参考訳(メタデータ) (2021-08-25T08:47:24Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Dynamic Multi-Branch Layers for On-Device Neural Machine Translation [53.637479651600586]
動的マルチブランチ層を用いたオンデバイスニューラルマシン翻訳(NMT)システムの性能向上を提案する。
具体的には、トレーニングと推論中に1つの分岐のみを活性化した層方向動的マルチブランチネットワークを設計する。
ほぼ同じ計算コストで、WMT14英語-ドイツ語翻訳タスクでは最大1.7 BLEUポイント、WMT20中国語-英語翻訳タスクでは1.8 BLEUポイントの改善を実現します。
論文 参考訳(メタデータ) (2021-05-14T07:32:53Z) - Zero-shot Cross-lingual Transfer of Neural Machine Translation with
Multilingual Pretrained Encoders [74.89326277221072]
多言語プリトレーニング済みエンコーダによるNMTモデルのクロスリンガル転送を改善する方法は、未検討です。
このタスクのシンプルで効果的なモデルであるSixTを提案します。
私達のモデルはCRISSおよびm2m-100より多くの英語テストセットでよりよい性能を達成します。
論文 参考訳(メタデータ) (2021-04-18T07:42:45Z) - Attention Is All You Need [36.87735219227719]
本稿では,アテンション機構のみに基づく新しいシンプルなネットワークアーキテクチャであるTransformerを提案する。
2つの機械翻訳タスクの実験は、これらのモデルの品質が優れていることを示している。
論文 参考訳(メタデータ) (2017-06-12T17:57:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。