論文の概要: COMBO: State-of-the-Art Morphosyntactic Analysis
- arxiv url: http://arxiv.org/abs/2109.05361v1
- Date: Sat, 11 Sep 2021 20:00:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:49:25.209368
- Title: COMBO: State-of-the-Art Morphosyntactic Analysis
- Title(参考訳): COMBO: 最先端のモルフォシンタクティック分析
- Authors: Mateusz Klimaszewski, Alina Wr\'oblewska
- Abstract要約: COMBOは、音声の正確なタグ付け、形態解析、補綴、および(強化された)依存性解析のための完全に神経的なNLPシステムである。
隠れた層から抽出したベクトル表現を公開しながら、分類的形態合成特性を予測する。
40以上の言語で、トレーニング済みのモデルを自動的にダウンロードして、Pythonパッケージをインストールするのは簡単です。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce COMBO - a fully neural NLP system for accurate part-of-speech
tagging, morphological analysis, lemmatisation, and (enhanced) dependency
parsing. It predicts categorical morphosyntactic features whilst also exposes
their vector representations, extracted from hidden layers. COMBO is an easy to
install Python package with automatically downloadable pre-trained models for
over 40 languages. It maintains a balance between efficiency and quality. As it
is an end-to-end system and its modules are jointly trained, its training is
competitively fast. As its models are optimised for accuracy, they achieve
often better prediction quality than SOTA. The COMBO library is available at:
https://gitlab.clarin-pl.eu/syntactic-tools/combo.
- Abstract(参考訳): COMBO - 音声の正確なタグ付け、形態解析、補綴、および(拡張された)依存性解析のための完全なニューラルNLPシステムを紹介する。
分類的形態素的特徴を予測し、また隠れた層から抽出されたベクトル表現も公開する。
COMBOはPythonパッケージのインストールが簡単で、40以上の言語でトレーニング済みのモデルを自動的にダウンロードできる。
効率と品質のバランスを保っている。
エンドツーエンドシステムであり、モジュールは共同でトレーニングされているため、トレーニングは競争的に高速である。
モデルが精度に最適化されているため、SOTAよりも予測品質が良いことがしばしばある。
COMBOライブラリは以下の通りである。
関連論文リスト
- Open-Source Web Service with Morphological Dictionary-Supplemented Deep Learning for Morphosyntactic Analysis of Czech [1.7871207544302354]
チェコ語形態素解析のためのオープンソースのWebサービスを提案する。
このシステムは、推論時の高精度な形態素辞書による深層学習モデルと再構成を組み合わせる。
論文 参考訳(メタデータ) (2024-06-18T09:14:58Z) - UncertaintyPlayground: A Fast and Simplified Python Library for
Uncertainty Estimation [0.0]
UncertaintyPlaygroundはPyTorchとGPyTorch上に構築されたPythonライブラリで、教師付き学習タスクの不確かさを推定する。
このライブラリは、ガウスおよびマルチモーダルな結果分布の高速なトレーニングを提供する。
1つ以上のインスタンスの予測間隔を視覚化することができる。
論文 参考訳(メタデータ) (2023-10-23T18:36:54Z) - LCE: An Augmented Combination of Bagging and Boosting in Python [45.65284933207566]
lcensembleはハイパフォーマンスでスケーラブルでユーザフレンドリなPythonパッケージで、分類と回帰の一般的なタスクのためのものだ。
Local Cascade Ensemble (LCE)は、現在の最先端手法であるRandom ForestとXGBoostの予測性能をさらに向上する機械学習手法である。
論文 参考訳(メタデータ) (2023-08-14T16:34:47Z) - Bayesian Optimization of Catalysts With In-context Learning [0.0]
大規模言語モデル(LLM)は、ゼロまたは少数の例で正確な分類を行うことができる。
凍結LLMを用いた文脈内学習において,不確実性を伴う回帰を可能にするプロンプトシステムを提案する。
論文 参考訳(メタデータ) (2023-04-11T17:00:35Z) - Enhancing Self-Consistency and Performance of Pre-Trained Language
Models through Natural Language Inference [72.61732440246954]
大規模な事前訓練された言語モデルは、テスト入力間の論理的一貫性を欠いていることが多い。
本研究では,事前学習したNLPモデルの一貫性と精度を高めるためのフレームワークであるConCoRDを提案する。
ConCoRDは、市販のクローズドブックQAおよびVQAモデルの精度と一貫性を一貫して向上することを示す。
論文 参考訳(メタデータ) (2022-11-21T21:58:30Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Embarrassingly Simple Performance Prediction for Abductive Natural
Language Inference [10.536415845097661]
本研究では,NLIモデルの性能を微調整せずに予測する手法を提案する。
その結果,コサイン類似度手法の精度はパーソン相関係数0.65の分類手法の精度と強く相関していることがわかった。
提案手法は,モデル選択の過程において,大幅な時間節約につながる可能性がある。
論文 参考訳(メタデータ) (2022-02-21T18:10:24Z) - Inducing Transformer's Compositional Generalization Ability via
Auxiliary Sequence Prediction Tasks [86.10875837475783]
体系的な構成性は人間の言語において必須のメカニズムであり、既知の部品の組換えによって新しい表現を作り出すことができる。
既存のニューラルモデルには、記号構造を学習する基本的な能力がないことが示されている。
本稿では,関数の進行と引数のセマンティクスを追跡する2つの補助シーケンス予測タスクを提案する。
論文 参考訳(メタデータ) (2021-09-30T16:41:19Z) - Exploring Unsupervised Pretraining Objectives for Machine Translation [99.5441395624651]
教師なし言語間事前訓練は、ニューラルマシン翻訳(NMT)の強力な結果を得た
ほとんどのアプローチは、入力の一部をマスキングしてデコーダで再構成することで、シーケンス・ツー・シーケンスアーキテクチャにマスク付き言語モデリング(MLM)を適用する。
マスキングと、実際の(完全な)文に似た入力を生成する代替目的を、文脈に基づいて単語を並べ替えて置き換えることにより比較する。
論文 参考訳(メタデータ) (2021-06-10T10:18:23Z) - Parameter Space Factorization for Zero-Shot Learning across Tasks and
Languages [112.65994041398481]
本稿では,ニューラルパラメータの空間に対するベイズ生成モデルを提案する。
タスク言語の組み合わせから得られたデータに基づいて、そのような潜伏変数よりも後部を推測する。
我々のモデルは、最先端のゼロショットの言語間転送手法よりも、同等か良い結果が得られる。
論文 参考訳(メタデータ) (2020-01-30T16:58:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。