論文の概要: adaptNMT: an open-source, language-agnostic development environment for
Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2403.02367v1
- Date: Mon, 4 Mar 2024 12:10:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 17:31:01.902625
- Title: adaptNMT: an open-source, language-agnostic development environment for
Neural Machine Translation
- Title(参考訳): adaptNMT:ニューラルマシン翻訳のためのオープンソースの言語に依存しない開発環境
- Authors: S\'eamus Lankford, Haithem Afli and Andy Way
- Abstract要約: adaptNMTは、機械翻訳の分野で働いている技術と非技術の両方のユーザー向けに設計されている。
このアプリケーションは広く採用されているOpenNMTエコシステム上に構築されている。
NLP空間におけるエコフレンドリーな研究を支援するため、グリーンレポートでは、モデル開発中に発生する電力消費とkgCO$_2$排出もフラグ付けしている。
- 参考スコア(独自算出の注目度): 2.648836772989769
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: adaptNMT streamlines all processes involved in the development and deployment
of RNN and Transformer neural translation models. As an open-source
application, it is designed for both technical and non-technical users who work
in the field of machine translation. Built upon the widely-adopted OpenNMT
ecosystem, the application is particularly useful for new entrants to the field
since the setup of the development environment and creation of train,
validation and test splits is greatly simplified. Graphing, embedded within the
application, illustrates the progress of model training, and SentencePiece is
used for creating subword segmentation models. Hyperparameter customization is
facilitated through an intuitive user interface, and a single-click model
development approach has been implemented. Models developed by adaptNMT can be
evaluated using a range of metrics, and deployed as a translation service
within the application. To support eco-friendly research in the NLP space, a
green report also flags the power consumption and kgCO$_{2}$ emissions
generated during model development. The application is freely available.
- Abstract(参考訳): adaptNMTは、RNNとTransformerの神経翻訳モデルの開発と展開に関わるすべてのプロセスを合理化する。
オープンソースアプリケーションとして、機械翻訳の分野で働いている技術と非技術の両方のユーザ向けに設計されている。
広く採用されているOpenNMTエコシステムを基盤として開発されたこのアプリケーションは,開発環境のセットアップやトレイン,バリデーション,テスト分割の生成が大幅に簡略化されているため,新たな参入者にとって特に有用である。
グラフ化はアプリケーション内に組み込まれ、モデルのトレーニングの進捗が説明され、文片はサブワードセグメンテーションモデルの作成に使用される。
ハイパーパラメータのカスタマイズは直感的なユーザインターフェースを通じて容易であり、シングルクリックモデル開発アプローチが実装されている。
adaptnmtによって開発されたモデルは、さまざまなメトリクスを使用して評価でき、アプリケーション内の翻訳サービスとしてデプロイされる。
NLP分野におけるエコフレンドリーな研究を支援するため、グリーンレポートでは、モデル開発中に発生する電力消費とkgCO$_{2}$排出もフラグ付けしている。
アプリケーションは無料で利用できる。
関連論文リスト
- Design of an Open-Source Architecture for Neural Machine Translation [2.648836772989769]
adaptNMTは、Transformerモデルの開発とデプロイに対する合理化されたアプローチを提供するオープンソースアプリケーションである。
このアプリケーションは広く採用されているOpenNMTエコシステム上に構築されている。
論文 参考訳(メタデータ) (2024-03-06T09:57:52Z) - Enhancing Neural Machine Translation of Low-Resource Languages: Corpus
Development, Human Evaluation and Explainable AI Architectures [0.0]
Transformerアーキテクチャは、特に高リソースの言語ペアにおいて、ゴールドスタンダードとして際立っている。
低リソース言語のための並列データセットの不足は、機械翻訳開発を妨げる可能性がある。
この論文では、ニューラルネットワーク翻訳モデルの開発、微調整、デプロイのために合理化された2つのオープンソースアプリケーションであるAdaptNMTとAdaptMLLMを紹介している。
論文 参考訳(メタデータ) (2024-03-03T18:08:30Z) - dFlow: A Domain Specific Language for the Rapid Development of
open-source Virtual Assistants [1.2277343096128712]
タスク固有のVAを低コードで作成するためのフレームワークである textitdFlow を提案する。
本稿では,システムに依存しないVAメタモデル,開発した文法,およびスマートVAの開発と展開に必要なプロセスについて述べる。
さらに便利にするために、クラウドネイティブアーキテクチャを作成して、Discordプラットフォームを通じて公開しています。
論文 参考訳(メタデータ) (2023-10-03T14:46:33Z) - Learning to Generalize to More: Continuous Semantic Augmentation for
Neural Machine Translation [50.54059385277964]
CsaNMT(Continuous Semantic Augmentation)と呼ばれる新しいデータ拡張パラダイムを提案する。
CsaNMTは各トレーニングインスタンスを、同じ意味の下で適切なリテラル式をカバーできる隣接領域で拡張する。
論文 参考訳(メタデータ) (2022-04-14T08:16:28Z) - Factorized Neural Transducer for Efficient Language Model Adaptation [51.81097243306204]
空白および語彙予測を分解し,ニューラルトランスデューサの因子化モデルを提案する。
この因子化は、音声認識のためのトランスデューサにスタンドアロン言語モデルの改善を移すことが期待できる。
提案した因子化ニューラルトランスデューサは、言語モデル適応にドメイン外テキストデータを使用する場合、15%から20%のWER改善が得られることを示す。
論文 参考訳(メタデータ) (2021-09-27T15:04:00Z) - Towards Reinforcement Learning for Pivot-based Neural Machine
Translation with Non-autoregressive Transformer [49.897891031932545]
Pivot-based Neural Machine Translation (NMT) は、低リソースのセットアップで一般的に使用される。
我々は、ソースターゲットデータのトレーニングを可能にするエンドツーエンドのピボットベース統合モデルを提案する。
論文 参考訳(メタデータ) (2021-09-27T14:49:35Z) - Fast Text-Only Domain Adaptation of RNN-Transducer Prediction Network [0.0]
RNNトランスデューサモデルは,少量のテキストデータのみを用いて,新しいドメインに効果的に適応できることを示した。
本稿では,複数のASR評価タスクを用いて,目標タスクWERにおける相対的な10〜45%の利得が得られる方法を示す。
論文 参考訳(メタデータ) (2021-04-22T15:21:41Z) - Compiling ONNX Neural Network Models Using MLIR [51.903932262028235]
本稿では,深層ニューラルネットワークモデルの推論のためのコードを生成するonnx-mlirコンパイラについて予備報告を行う。
Onnx-mlirは、最近LLVMプロジェクトに統合されたMulti-Level Intermediate Representation (MLIR)インフラストラクチャに依存している。
論文 参考訳(メタデータ) (2020-08-19T05:28:08Z) - Sequence Model Design for Code Completion in the Modern IDE [3.4824234779710452]
本稿では,すべての有効なキーワードとスコープ内識別子を列挙する静的解析能力と,それらの上に確率分布を配置する言語モデルの能力を組み合わせた,トップk次トークンの予測手法を提案する。
我々のモデルは,文字レベルの入力表現とトークン出力を混合し,語彙外トークン(OOV)を有意に表現し,予測遅延を最小化する。
論文 参考訳(メタデータ) (2020-04-10T22:40:49Z) - Few-shot Natural Language Generation for Task-Oriented Dialog [113.07438787659859]
FewShotWozは,タスク指向対話システムにおける数ショットの学習設定をシミュレートする最初の NLG ベンチマークである。
我々は, SC-GPTモデルを開発し, その制御可能な生成能力を得るために, 注釈付きNLGコーパスの大規模なセットで事前学習を行った。
FewShotWozとMulti-Domain-WOZデータセットの実験は、提案したSC-GPTが既存の手法を大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2020-02-27T18:48:33Z) - The Microsoft Toolkit of Multi-Task Deep Neural Networks for Natural
Language Understanding [97.85957811603251]
MT-DNNはオープンソースの自然言語理解(NLU)ツールキットであり、研究者や開発者がカスタマイズされたディープラーニングモデルを訓練しやすくする。
PyTorchとTransformersをベースとして開発されたMT-DNNは、幅広いNLUタスクの迅速なカスタマイズを容易にするように設計されている。
MT-DNNのユニークな特徴は、対戦型マルチタスク学習パラダイムを用いた堅牢で移動可能な学習のサポートである。
論文 参考訳(メタデータ) (2020-02-19T03:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。