論文の概要: RethinkCWS: Is Chinese Word Segmentation a Solved Task?
- arxiv url: http://arxiv.org/abs/2011.06858v2
- Date: Wed, 9 Dec 2020 04:48:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 00:02:15.815233
- Title: RethinkCWS: Is Chinese Word Segmentation a Solved Task?
- Title(参考訳): RethinkCWS:中国語の単語分割は解決された課題か?
- Authors: Jinlan Fu, Pengfei Liu, Qi Zhang, Xuanjing Huang
- Abstract要約: 中国語の単語(CWS)システムの性能は、ディープニューラルネットワークの急速な発展とともに、徐々に高水準に達している。
本稿では、私たちが達成した事柄の株式を取得し、CWSタスクに残されている事柄を再考する。
- 参考スコア(独自算出の注目度): 81.11161697133095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The performance of the Chinese Word Segmentation (CWS) systems has gradually
reached a plateau with the rapid development of deep neural networks,
especially the successful use of large pre-trained models. In this paper, we
take stock of what we have achieved and rethink what's left in the CWS task.
Methodologically, we propose a fine-grained evaluation for existing CWS
systems, which not only allows us to diagnose the strengths and weaknesses of
existing models (under the in-dataset setting), but enables us to quantify the
discrepancy between different criterion and alleviate the negative transfer
problem when doing multi-criteria learning. Strategically, despite not aiming
to propose a novel model in this paper, our comprehensive experiments on eight
models and seven datasets, as well as thorough analysis, could search for some
promising direction for future research. We make all codes publicly available
and release an interface that can quickly evaluate and diagnose user's models:
https://github.com/neulab/InterpretEval.
- Abstract(参考訳): 中国語単語セグメンテーション(cws)システムの性能は、ディープニューラルネットワークの急速な発展、特に大規模事前学習モデルの成功によって徐々に高原に達している。
本稿では、私たちが達成したことの株式を取得し、CWSタスクに残されているものを再考する。
提案手法は,既存のCWSシステムに対して,既存のモデルの長所と短所(データセット内設定)を診断するだけでなく,異なる基準間の差分を定量化し,複数基準学習を行う際の負の伝達問題を緩和することのできる,きめ細かい評価手法を提案する。
戦略的には, 新たなモデルの提案を意図していないが, 8つのモデルと7つのデータセットに関する包括的実験と, 徹底的な分析により, 今後の研究に有望な方向性を探究することができる。
すべてのコードが公開され、ユーザモデルの迅速な評価と診断が可能なインターフェースがリリースされます。
関連論文リスト
- Zero-shot Retrieval: Augmenting Pre-trained Models with Search Engines [83.65380507372483]
大規模で事前訓練されたモデルは、問題を解決するのに必要なタスク固有のデータの量を劇的に削減するが、多くの場合、ドメイン固有のニュアンスを箱から取り出すのに失敗する。
本稿では,NLPとマルチモーダル学習の最近の進歩を活用して,検索エンジン検索による事前学習モデルを強化する方法について述べる。
論文 参考訳(メタデータ) (2023-11-29T05:33:28Z) - The Languini Kitchen: Enabling Language Modelling Research at Different
Scales of Compute [66.84421705029624]
本稿では,アクセル時間で測定された等価計算に基づくモデル比較を可能にする実験的プロトコルを提案する。
私たちは、既存の学術的ベンチマークを上回り、品質、多様性、文書の長さで上回る、大規模で多様で高品質な書籍データセットを前処理します。
この研究は、GPT-2アーキテクチャから派生したフィードフォワードモデルと、10倍のスループットを持つ新しいLSTMの形式でのリカレントモデルという2つのベースラインモデルも提供する。
論文 参考訳(メタデータ) (2023-09-20T10:31:17Z) - Efficiently Robustify Pre-trained Models [18.392732966487582]
大規模モデルの現実的な設定に対する堅牢性は、いまだ探索されていないトピックである。
まず、異なる摂動とデータセットの下でこれらのモデルのパフォーマンスをベンチマークします。
続いて、大規模ネットワークにおいて、モデルファインチューニングに基づく既存のロバスト化スキームが拡張性に欠ける可能性について論じる。
論文 参考訳(メタデータ) (2023-09-14T08:07:49Z) - Language Models for Novelty Detection in System Call Traces [0.27309692684728604]
本稿では,システムコールのシーケンスの確率分布に依存する新規性検出手法を提案する。
提案手法は手作りを最小限に抑え、多くの新規品においてFスコアとAuROCを95%以上達成する。
ソースコードとトレーニングされたモデルはGitHubで公開されており、データセットはZenodoで公開されている。
論文 参考訳(メタデータ) (2023-09-05T13:11:40Z) - Frugal Reinforcement-based Active Learning [12.18340575383456]
本稿では,ラベル効率向上のための新しい能動的学習手法を提案する。
提案手法は反復的であり,多様性,表現性,不確実性の基準を混合した制約対象関数の最小化を目的としている。
また、強化学習に基づく新たな重み付け機構を導入し、各トレーニングイテレーションでこれらの基準を適応的にバランスさせる。
論文 参考訳(メタデータ) (2022-12-09T14:17:45Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - 2nd Place Scheme on Action Recognition Track of ECCV 2020 VIPriors
Challenges: An Efficient Optical Flow Stream Guided Framework [57.847010327319964]
我々は、小さなデータセットでモデルをスクラッチからトレーニングできるデータ効率フレームワークを提案する。
具体的には、3D中心差分畳み込み演算を導入することで、新しいC3Dニューラルネットワークベースの2ストリームフレームワークを提案する。
提案手法は,大規模データセット上で事前学習したモデルがなくても,有望な結果が得られることを実証した。
論文 参考訳(メタデータ) (2020-08-10T09:50:28Z) - SpaceNet: Make Free Space For Continual Learning [15.914199054779438]
本研究では,クラスインクリメンタル学習シナリオのための新しいアーキテクチャベースのSpaceNetを提案する。
SpaceNetは、複数のニューロンで各タスクのスパース接続を圧縮する適応的な方法で、スクラッチから深層ニューラルネットワークを訓練する。
実験により,従来のタスクを忘れることに対する提案手法のロバストさと,モデルが利用可能な容量を利用する場合のSpaceNetの効率性を示す。
論文 参考訳(メタデータ) (2020-07-15T11:21:31Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。