論文の概要: adaptNMT: an open-source, language-agnostic development environment for
Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2403.02367v1
- Date: Mon, 4 Mar 2024 12:10:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 17:31:01.902625
- Title: adaptNMT: an open-source, language-agnostic development environment for
Neural Machine Translation
- Title(参考訳): adaptNMT:ニューラルマシン翻訳のためのオープンソースの言語に依存しない開発環境
- Authors: S\'eamus Lankford, Haithem Afli and Andy Way
- Abstract要約: adaptNMTは、機械翻訳の分野で働いている技術と非技術の両方のユーザー向けに設計されている。
このアプリケーションは広く採用されているOpenNMTエコシステム上に構築されている。
NLP空間におけるエコフレンドリーな研究を支援するため、グリーンレポートでは、モデル開発中に発生する電力消費とkgCO$_2$排出もフラグ付けしている。
- 参考スコア(独自算出の注目度): 2.648836772989769
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: adaptNMT streamlines all processes involved in the development and deployment
of RNN and Transformer neural translation models. As an open-source
application, it is designed for both technical and non-technical users who work
in the field of machine translation. Built upon the widely-adopted OpenNMT
ecosystem, the application is particularly useful for new entrants to the field
since the setup of the development environment and creation of train,
validation and test splits is greatly simplified. Graphing, embedded within the
application, illustrates the progress of model training, and SentencePiece is
used for creating subword segmentation models. Hyperparameter customization is
facilitated through an intuitive user interface, and a single-click model
development approach has been implemented. Models developed by adaptNMT can be
evaluated using a range of metrics, and deployed as a translation service
within the application. To support eco-friendly research in the NLP space, a
green report also flags the power consumption and kgCO$_{2}$ emissions
generated during model development. The application is freely available.
- Abstract(参考訳): adaptNMTは、RNNとTransformerの神経翻訳モデルの開発と展開に関わるすべてのプロセスを合理化する。
オープンソースアプリケーションとして、機械翻訳の分野で働いている技術と非技術の両方のユーザ向けに設計されている。
広く採用されているOpenNMTエコシステムを基盤として開発されたこのアプリケーションは,開発環境のセットアップやトレイン,バリデーション,テスト分割の生成が大幅に簡略化されているため,新たな参入者にとって特に有用である。
グラフ化はアプリケーション内に組み込まれ、モデルのトレーニングの進捗が説明され、文片はサブワードセグメンテーションモデルの作成に使用される。
ハイパーパラメータのカスタマイズは直感的なユーザインターフェースを通じて容易であり、シングルクリックモデル開発アプローチが実装されている。
adaptnmtによって開発されたモデルは、さまざまなメトリクスを使用して評価でき、アプリケーション内の翻訳サービスとしてデプロイされる。
NLP分野におけるエコフレンドリーな研究を支援するため、グリーンレポートでは、モデル開発中に発生する電力消費とkgCO$_{2}$排出もフラグ付けしている。
アプリケーションは無料で利用できる。
関連論文リスト
- Segment-Based Interactive Machine Translation for Pre-trained Models [2.0871483263418806]
対話型機械翻訳環境におけるLLM(Pre-trained large language model)の利用について検討する。
システムは、ユーザが各イテレーションで提供するフィードバックを使って、インタラクティブに完璧な翻訳を生成する。
我々は,mBART,mT5,SoTA(State-of-the-art)機械翻訳モデルの性能を,ユーザ作業に関するベンチマークデータセット上で比較した。
論文 参考訳(メタデータ) (2024-07-09T16:04:21Z) - CMULAB: An Open-Source Framework for Training and Deployment of Natural Language Processing Models [59.91221728187576]
本稿では,NLPモデルのモデル展開と連続的なヒューマン・イン・ザ・ループの微調整を簡単にするオープンソースフレームワークであるCMU言語バックエンドを紹介する。
CMULABは、マルチ言語モデルのパワーを活用して、音声認識、OCR、翻訳、構文解析などの既存のツールを新しい言語に迅速に適応し、拡張することができる。
論文 参考訳(メタデータ) (2024-04-03T02:21:46Z) - Low-resource neural machine translation with morphological modeling [3.3721926640077804]
ニューラルマシン翻訳(NMT)における形態的モデリングは、オープン語彙機械翻訳を実現するための有望なアプローチである。
低リソース環境における複雑な形態をモデル化するためのフレームワークソリューションを提案する。
パブリックドメインのパラレルテキストを用いた英訳であるKinyarwandaについて,提案手法の評価を行った。
論文 参考訳(メタデータ) (2024-04-03T01:31:41Z) - Design of an Open-Source Architecture for Neural Machine Translation [2.648836772989769]
adaptNMTは、Transformerモデルの開発とデプロイに対する合理化されたアプローチを提供するオープンソースアプリケーションである。
このアプリケーションは広く採用されているOpenNMTエコシステム上に構築されている。
論文 参考訳(メタデータ) (2024-03-06T09:57:52Z) - dFlow: A Domain Specific Language for the Rapid Development of
open-source Virtual Assistants [1.2277343096128712]
タスク固有のVAを低コードで作成するためのフレームワークである textitdFlow を提案する。
本稿では,システムに依存しないVAメタモデル,開発した文法,およびスマートVAの開発と展開に必要なプロセスについて述べる。
さらに便利にするために、クラウドネイティブアーキテクチャを作成して、Discordプラットフォームを通じて公開しています。
論文 参考訳(メタデータ) (2023-10-03T14:46:33Z) - Learning to Generalize to More: Continuous Semantic Augmentation for
Neural Machine Translation [50.54059385277964]
CsaNMT(Continuous Semantic Augmentation)と呼ばれる新しいデータ拡張パラダイムを提案する。
CsaNMTは各トレーニングインスタンスを、同じ意味の下で適切なリテラル式をカバーできる隣接領域で拡張する。
論文 参考訳(メタデータ) (2022-04-14T08:16:28Z) - Factorized Neural Transducer for Efficient Language Model Adaptation [51.81097243306204]
空白および語彙予測を分解し,ニューラルトランスデューサの因子化モデルを提案する。
この因子化は、音声認識のためのトランスデューサにスタンドアロン言語モデルの改善を移すことが期待できる。
提案した因子化ニューラルトランスデューサは、言語モデル適応にドメイン外テキストデータを使用する場合、15%から20%のWER改善が得られることを示す。
論文 参考訳(メタデータ) (2021-09-27T15:04:00Z) - Compiling ONNX Neural Network Models Using MLIR [51.903932262028235]
本稿では,深層ニューラルネットワークモデルの推論のためのコードを生成するonnx-mlirコンパイラについて予備報告を行う。
Onnx-mlirは、最近LLVMプロジェクトに統合されたMulti-Level Intermediate Representation (MLIR)インフラストラクチャに依存している。
論文 参考訳(メタデータ) (2020-08-19T05:28:08Z) - Few-shot Natural Language Generation for Task-Oriented Dialog [113.07438787659859]
FewShotWozは,タスク指向対話システムにおける数ショットの学習設定をシミュレートする最初の NLG ベンチマークである。
我々は, SC-GPTモデルを開発し, その制御可能な生成能力を得るために, 注釈付きNLGコーパスの大規模なセットで事前学習を行った。
FewShotWozとMulti-Domain-WOZデータセットの実験は、提案したSC-GPTが既存の手法を大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2020-02-27T18:48:33Z) - The Microsoft Toolkit of Multi-Task Deep Neural Networks for Natural
Language Understanding [97.85957811603251]
MT-DNNはオープンソースの自然言語理解(NLU)ツールキットであり、研究者や開発者がカスタマイズされたディープラーニングモデルを訓練しやすくする。
PyTorchとTransformersをベースとして開発されたMT-DNNは、幅広いNLUタスクの迅速なカスタマイズを容易にするように設計されている。
MT-DNNのユニークな特徴は、対戦型マルチタスク学習パラダイムを用いた堅牢で移動可能な学習のサポートである。
論文 参考訳(メタデータ) (2020-02-19T03:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。