論文の概要: Subword-Delimited Downsampling for Better Character-Level Translation
- arxiv url: http://arxiv.org/abs/2212.01304v1
- Date: Fri, 2 Dec 2022 16:56:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 16:41:36.142723
- Title: Subword-Delimited Downsampling for Better Character-Level Translation
- Title(参考訳): 文字レベル翻訳のためのサブワード限定ダウンサンプリング
- Authors: Lukas Edman, Antonio Toral, Gertjan van Noord
- Abstract要約: サブワードレベルのモデルはNLPにおいて支配的なパラダイムとなっている。
キャラクタレベルのモデルは、個々のキャラクタを個別に見る利点がある。
ダウンサンプリングコンポーネントを持つキャラクタレベルのモデルは、これを緩和するが、品質の犠牲になる。
- 参考スコア(独自算出の注目度): 3.734153902687548
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Subword-level models have been the dominant paradigm in NLP. However,
character-level models have the benefit of seeing each character individually,
providing the model with more detailed information that ultimately could lead
to better models. Recent works have shown character-level models to be
competitive with subword models, but costly in terms of time and computation.
Character-level models with a downsampling component alleviate this, but at the
cost of quality, particularly for machine translation. This work analyzes the
problems of previous downsampling methods and introduces a novel downsampling
method which is informed by subwords. This new downsampling method not only
outperforms existing downsampling methods, showing that downsampling characters
can be done without sacrificing quality, but also leads to promising
performance compared to subword models for translation.
- Abstract(参考訳): サブワードレベルのモデルはNLPにおいて支配的なパラダイムとなっている。
しかし、キャラクタレベルモデルは個々のキャラクタを個別に見る利点があり、モデルにより詳細な情報を提供し、最終的により良いモデルにつながる可能性がある。
近年の研究では、文字レベルモデルはサブワードモデルと競合するが、時間と計算の面ではコストがかかることが示されている。
ダウンサンプリングコンポーネントを持つキャラクタレベルのモデルは、これを緩和するが、特に機械翻訳のコストがかかる。
本研究は,従来のダウンサンプリング手法の問題点を分析し,サブワードから情報を得る新しいダウンサンプリング手法を提案する。
この新たなダウンサンプリング手法は、既存のダウンサンプリング手法よりも優れており、ダウンサンプリング文字は品質を犠牲にすることなく実行可能であるだけでなく、翻訳用のサブワードモデルと比較して有望なパフォーマンスをもたらす。
関連論文リスト
- Detection and Measurement of Syntactic Templates in Generated Text [58.111650675717414]
モデルにおける一般的な反復を特徴付けるための構文的特徴の解析を行う。
モデルでは、下流のタスクにおいて、人間の参照テキストよりも高いレートでテンプレートテキストを生成する傾向にある。
論文 参考訳(メタデータ) (2024-06-28T19:34:23Z) - ML-SUPERB 2.0: Benchmarking Multilingual Speech Models Across Modeling Constraints, Languages, and Datasets [106.7760874400261]
本稿では、事前訓練されたSSLと教師付き音声モデルを評価するための新しいベンチマークであるML-SUPERB2.0を提案する。
ML-SUPERBのセットアップよりも性能が向上するが、性能は下流モデル設計に依存している。
また、言語とデータセットのパフォーマンスに大きな違いがあることから、よりターゲットを絞ったアプローチの必要性も示唆されている。
論文 参考訳(メタデータ) (2024-06-12T21:01:26Z) - Language Models for Text Classification: Is In-Context Learning Enough? [54.869097980761595]
最近の基礎言語モデルでは、ゼロショットや少数ショットの設定で多くのNLPタスクで最先端のパフォーマンスが示されている。
より標準的なアプローチよりもこれらのモデルの利点は、自然言語(prompts)で書かれた命令を理解する能力である。
これにより、アノテーション付きインスタンスが限られているドメインのテキスト分類問題に対処するのに適している。
論文 参考訳(メタデータ) (2024-03-26T12:47:39Z) - Explaining Pre-Trained Language Models with Attribution Scores: An
Analysis in Low-Resource Settings [32.03184402316848]
我々は,素早いモデルから抽出した帰属スコアの妥当性と忠実度を分析した。
プロンプトパラダイムを用いることで、低リソース環境下でモデルを微調整するよりも、より妥当な説明が得られます。
論文 参考訳(メタデータ) (2024-03-08T14:14:37Z) - Investigating Ensemble Methods for Model Robustness Improvement of Text
Classifiers [66.36045164286854]
既存のバイアス機能を分析し、すべてのケースに最適なモデルが存在しないことを実証します。
適切なバイアスモデルを選択することで、より洗練されたモデル設計でベースラインよりもロバスト性が得られる。
論文 参考訳(メタデータ) (2022-10-28T17:52:10Z) - Few-shot Text Classification with Dual Contrastive Consistency [31.141350717029358]
本稿では,事前学習した言語モデルを用いて,数ショットのテキスト分類を行う方法について検討する。
ラベル付きデータが少ない場合の教師付きコントラスト学習と、ラベルなしデータの一貫性と規則化を採用する。
論文 参考訳(メタデータ) (2022-09-29T19:26:23Z) - A Unified Understanding of Deep NLP Models for Text Classification [88.35418976241057]
我々は、テキスト分類のためのNLPモデルの統一的な理解を可能にする視覚解析ツールDeepNLPVisを開発した。
主要なアイデアは相互情報に基づく尺度であり、モデルの各レイヤがサンプル内の入力語の情報をどのように保持するかを定量的に説明する。
コーパスレベル、サンプルレベル、単語レベルビジュアライゼーションで構成されるマルチレベルビジュアライゼーションは、全体トレーニングセットから個々のサンプルまでの分析をサポートする。
論文 参考訳(メタデータ) (2022-06-19T08:55:07Z) - Evaluation of HTR models without Ground Truth Material [2.4792948967354236]
手書き文字認識モデルの開発における評価は容易である。
しかし、開発からアプリケーションに切り替えると、評価プロセスはトリッキーになります。
我々は,レキシコンに基づく評価が,レキシコンに基づく手法と競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T01:26:09Z) - Word Shape Matters: Robust Machine Translation with Visual Embedding [78.96234298075389]
文字レベルNLPモデルの入力シンボルを新たに符号化する。
文字が印刷されたときの画像を通して各文字の形状をエンコードする。
我々はこの新たな戦略を視覚的埋め込みと呼び、NLPモデルの堅牢性を向上させることが期待されている。
論文 参考訳(メタデータ) (2020-10-20T04:08:03Z) - Minority Class Oversampling for Tabular Data with Deep Generative Models [4.976007156860967]
オーバーサンプリングによる非バランスな分類タスクの性能向上を図るために, 深層生成モデルを用いて現実的なサンプルを提供する能力について検討した。
実験の結果,サンプリング手法は品質に影響を与えないが,実行環境は様々であることがわかった。
また、性能指標の点でも改善が重要であるが、絶対的な点では小さな点がしばしば見られる。
論文 参考訳(メタデータ) (2020-05-07T21:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。