論文の概要: YATO: Yet Another deep learning based Text analysis Open toolkit
- arxiv url: http://arxiv.org/abs/2209.13877v3
- Date: Sat, 19 Aug 2023 06:24:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 02:46:44.240659
- Title: YATO: Yet Another deep learning based Text analysis Open toolkit
- Title(参考訳): YATO: もう1つのディープラーニングベースのテキスト分析オープンツールキット
- Authors: Zeqiang Wang, Yile Wang, Jiageng Wu, Zhiyang Teng, Jie Yang
- Abstract要約: 本稿では,ディープラーニングを用いたテキスト解析のためのオープンソースで使いやすいツールキットYATOを紹介する。
YATOは軽量で、学際的な分野の研究者に親しみやすい。
- 参考スコア(独自算出の注目度): 14.094787723036797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce YATO, an open-source, easy-to-use toolkit for text analysis with
deep learning. Different from existing heavily engineered toolkits and
platforms, YATO is lightweight and user-friendly for researchers from
cross-disciplinary areas. Designed in a hierarchical structure, YATO supports
free combinations of three types of widely used features including 1)
traditional neural networks (CNN, RNN, etc.); 2) pre-trained language models
(BERT, RoBERTa, ELECTRA, etc.); and 3) user-customized neural features via a
simple configurable file. Benefiting from the advantages of flexibility and
ease of use, YATO can facilitate fast reproduction and refinement of
state-of-the-art NLP models, and promote the cross-disciplinary applications of
NLP techniques. The code, examples, and documentation are publicly available at
https://github.com/jiesutd/YATO. A demo video is also available at
https://youtu.be/tSjjf5BzfQg.
- Abstract(参考訳): 本稿では,ディープラーニングを用いたテキスト解析のためのオープンソースで使いやすいツールキットYATOを紹介する。
既存の高度にエンジニアリングされたツールキットやプラットフォームとは異なり、YATOは軽量で、学際的な分野の研究者に親しみやすい。
階層構造で設計されたYATOは、広く使われている3種類の機能の組み合わせを無償でサポートする。
1) 従来のニューラルネットワーク(CNN,RNNなど)
2)事前訓練言語モデル(BERT、RoBERTa、ELECTRAなど)及び
3) シンプルな構成ファイルによるユーザカスタマイズ型ニューラル機能。
YATOは、柔軟性と使いやすさの利点から、最先端のNLPモデルの高速な再現と改良を促進し、NLP技術の学際的応用を促進する。
コード、サンプル、ドキュメントはhttps://github.com/jiesutd/YATOで公開されている。
デモビデオはhttps://youtu.be/tsjf5bzfqgで公開されている。
関連論文リスト
- CMULAB: An Open-Source Framework for Training and Deployment of Natural Language Processing Models [59.91221728187576]
本稿では,NLPモデルのモデル展開と連続的なヒューマン・イン・ザ・ループの微調整を簡単にするオープンソースフレームワークであるCMU言語バックエンドを紹介する。
CMULABは、マルチ言語モデルのパワーを活用して、音声認識、OCR、翻訳、構文解析などの既存のツールを新しい言語に迅速に適応し、拡張することができる。
論文 参考訳(メタデータ) (2024-04-03T02:21:46Z) - ESPnet-SPK: full pipeline speaker embedding toolkit with reproducible recipes, self-supervised front-ends, and off-the-shelf models [51.35570730554632]
ESPnet-SPKは、話者埋め込み抽出器を訓練するためのツールキットである。
我々は、x-vectorから最近のSKA-TDNNまで、いくつかのモデルを提供している。
開発モデルと他のドメインとの橋渡しも目指しています。
論文 参考訳(メタデータ) (2024-01-30T18:18:27Z) - NASiam: Efficient Representation Learning using Neural Architecture
Search for Siamese Networks [76.8112416450677]
シームズネットワークは、自己教師付き視覚表現学習(SSL)を実現するための最も傾向のある方法の1つである。
NASiamは、初めて微分可能なNASを使用して、多層パーセプトロンプロジェクタと予測器(エンコーダ/予測器ペア)を改善する新しいアプローチである。
NASiamは、小規模(CIFAR-10/CIFAR-100)と大規模(画像Net)画像分類データセットの両方で競合性能を達成し、わずか数GPU時間しかかからない。
論文 参考訳(メタデータ) (2023-01-31T19:48:37Z) - AdapterHub Playground: Simple and Flexible Few-Shot Learning with
Adapters [34.86139827292556]
事前訓練された言語モデルのオープンアクセスの普及は、最先端自然言語処理(NLP)研究の民主化につながった。
これにより、NLP以外の人たちでも、そのようなモデルを使用して、特定のユースケースに適応することが可能になります。
本研究では,一行のコードを書かずに事前学習したモデルを活用できるツールを提供することで,このギャップを克服することを目指している。
論文 参考訳(メタデータ) (2021-08-18T11:56:01Z) - EXPATS: A Toolkit for Explainable Automated Text Scoring [2.299617836036273]
ユーザが様々なATSモデルを迅速に開発、実験できるオープンソースフレームワークであるEXPATSについて紹介する。
また、このツールキットはLanguage Interpretability Tool(LIT)とシームレスに統合できるため、モデルとその予測を解釈および視覚化できます。
論文 参考訳(メタデータ) (2021-04-07T19:29:06Z) - LayoutParser: A Unified Toolkit for Deep Learning Based Document Image
Analysis [3.4253416336476246]
本稿では,文書画像解析(DIA)研究における深層学習(DL)モデルの利用を合理化するためのオープンソースのライブラリであるレイアウトパーサを紹介する。
layoutparserには、レイアウト検出、文字認識、および他の多くのドキュメント処理タスクのためのDLモデルを適用およびカスタマイズするためのシンプルで直感的なインターフェースのセットが付属しています。
layoutparserは、リアルタイムのユースケースにおける軽量パイプラインと大規模パイプラインの両方に有用であることを示す。
論文 参考訳(メタデータ) (2021-03-29T05:55:08Z) - A Practical Tutorial on Graph Neural Networks [49.919443059032226]
グラフニューラルネットワーク(GNN)は、人工知能(AI)分野において最近人気が高まっている。
このチュートリアルでは、GNNのパワーとノベルティをAI実践者に公開している。
論文 参考訳(メタデータ) (2020-10-11T12:36:17Z) - N-LTP: An Open-source Neural Language Technology Platform for Chinese [68.58732970171747]
textttN-は、中国の6つの基本的なNLPタスクをサポートする、オープンソースのニューラルネットワークテクノロジプラットフォームである。
textttN-は、中国のタスク間で共有知識をキャプチャする利点がある共有事前学習モデルを使用することで、マルチタスクフレームワークを採用する。
論文 参考訳(メタデータ) (2020-09-24T11:45:39Z) - deepSELF: An Open Source Deep Self End-to-End Learning Framework [6.840797108900677]
Deep Self End-to-end Learning Framework(ディープ・セルフ・エンド・ツー・エンド・ラーニング・フレームワーク)は、マルチモーダル信号のためのディープ・セルフ・エンド・エンド・ラーニング・フレームワークのツールキットである。
画像、オーディオ、シングルチャネルまたはマルチチャネルセンサーデータなど、さまざまなマルチモーダル信号の分析に使用できる。
論文 参考訳(メタデータ) (2020-05-11T13:50:01Z) - The Microsoft Toolkit of Multi-Task Deep Neural Networks for Natural
Language Understanding [97.85957811603251]
MT-DNNはオープンソースの自然言語理解(NLU)ツールキットであり、研究者や開発者がカスタマイズされたディープラーニングモデルを訓練しやすくする。
PyTorchとTransformersをベースとして開発されたMT-DNNは、幅広いNLUタスクの迅速なカスタマイズを容易にするように設計されている。
MT-DNNのユニークな特徴は、対戦型マルチタスク学習パラダイムを用いた堅牢で移動可能な学習のサポートである。
論文 参考訳(メタデータ) (2020-02-19T03:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。