論文の概要: Transformers for Headline Selection for Russian News Clusters
- arxiv url: http://arxiv.org/abs/2106.10487v1
- Date: Sat, 19 Jun 2021 12:34:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-24 08:47:24.252948
- Title: Transformers for Headline Selection for Russian News Clusters
- Title(参考訳): ロシアニュースクラスタのための見出し選択用トランスフォーマー
- Authors: Pavel Voropaev, Olga Sopilnyak
- Abstract要約: 本稿では,対話評価2021における複数言語とロシア語の事前学習型トランスフォーマーモデルについて検討する。
本実験は, 個別の多言語モデルと単言語モデルに比較して, 組み合わせアプローチが優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we explore various multilingual and Russian pre-trained
transformer-based models for the Dialogue Evaluation 2021 shared task on
headline selection. Our experiments show that the combined approach is superior
to individual multilingual and monolingual models. We present an analysis of a
number of ways to obtain sentence embeddings and learn a ranking model on top
of them. We achieve the result of 87.28% and 86.60% accuracy for the public and
private test sets respectively.
- Abstract(参考訳): 本稿では,対話評価2021における複数言語とロシア語の事前学習型トランスフォーマーモデルについて検討する。
実験の結果,多言語モデルと単言語モデルでは組み合わせアプローチの方が優れていることがわかった。
本稿では,文章の埋め込みと,その上でランキングモデルを学ぶためのいくつかの方法について分析する。
公開テストとプライベートテストでそれぞれ87.28%と86.60%の精度を達成した。
関連論文リスト
- PetKaz at SemEval-2024 Task 8: Can Linguistics Capture the Specifics of LLM-generated Text? [4.463184061618504]
我々はSemEval-2024タスク8「マルチジェネレータ、マルチドメイン、ブラックボックスマシン生成テキスト検出」を提出する。
我々のアプローチは、RoBERTaベースからの埋め込みと多様性機能の組み合わせに依存し、再サンプリングされたトレーニングセットを使用する。
その結果,本手法は未知のモデルや領域にまたがって一般化可能であり,精度は0.91であることがわかった。
論文 参考訳(メタデータ) (2024-04-08T13:05:02Z) - Revisiting Machine Translation for Cross-lingual Classification [91.43729067874503]
この分野のほとんどの研究は、機械翻訳コンポーネントではなく多言語モデルに焦点を当てている。
より強力なMTシステムを用いて、原文のトレーニングと機械翻訳テキストの推論のミスマッチを緩和することにより、翻訳テストは以前想定していたよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-05-23T16:56:10Z) - Decomposed Prompting for Machine Translation Between Related Languages
using Large Language Models [55.35106713257871]
DecoMTは、単語チャンク翻訳のシーケンスに翻訳プロセスを分解する、数発のプロンプトの新しいアプローチである。
DecoMTはBLOOMモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-22T14:52:47Z) - OCHADAI at SemEval-2022 Task 2: Adversarial Training for Multilingual
Idiomaticity Detection [4.111899441919165]
文が慣用的表現を含むか否かを判定する多言語逆行訓練モデルを提案する。
我々のモデルは、異なる多言語変換言語モデルからの事前学習された文脈表現に依存している。
論文 参考訳(メタデータ) (2022-06-07T05:52:43Z) - Exploring Teacher-Student Learning Approach for Multi-lingual
Speech-to-Intent Classification [73.5497360800395]
複数の言語をサポートするエンドツーエンドシステムを開発した。
我々は、事前訓練された多言語自然言語処理モデルからの知識を利用する。
論文 参考訳(メタデータ) (2021-09-28T04:43:11Z) - A Study of Multilingual End-to-End Speech Recognition for Kazakh,
Russian, and English [5.094176584161206]
我々は、カザフスタンで使われている3つの言語(カザフ語、ロシア語、英語)に対して、1つのエンドツーエンド(E2E)自動音声認識(ASR)モデルを訓練する。
本稿ではまず,Transformer ネットワークに基づく多言語 E2E ASR の開発について述べる。
論文 参考訳(メタデータ) (2021-08-03T04:04:01Z) - Comparison of Czech Transformers on Text Classification Tasks [0.0]
チェコ語用モノリンガルトランスフォーマーの事前学習の進捗を報告し、我々のモデルを公開して研究コミュニティに貢献する。
本稿では,トランスフォーマーの事前学習手法と,テキスト分類タスクにおける事前学習モデルの比較について述べる。
論文 参考訳(メタデータ) (2021-07-21T12:22:34Z) - Specializing Multilingual Language Models: An Empirical Study [50.7526245872855]
事前訓練された多言語モデルからの文脈化語表現は、自然言語タスクに対処するデファクトスタンダードとなっている。
これらのモデルではまれに、あるいは一度も見られない言語では、そのようなモデルを直接使用すると、最適な表現やデータの使用につながることが多い。
論文 参考訳(メタデータ) (2021-06-16T18:13:55Z) - RussianSuperGLUE: A Russian Language Understanding Evaluation Benchmark [5.258267224004844]
先進的なロシア語理解評価ベンチマークであるロシア語GLUEを紹介する。
9つのタスクのベンチマークは、SuperGLUEの手法と類似して収集され、ロシア語のスクラッチから開発された。
論文 参考訳(メタデータ) (2020-10-29T20:31:39Z) - Unsupervised Cross-lingual Representation Learning for Speech
Recognition [63.85924123692923]
XLSRは、複数の言語における音声の生波形から1つのモデルを事前学習することで、言語間音声表現を学習する。
我々は、マスク付き潜在音声表現よりも対照的なタスクを解くことで訓練されたwav2vec 2.0を構築した。
実験により、言語間事前学習はモノリンガル事前訓練よりも著しく優れていることが示された。
論文 参考訳(メタデータ) (2020-06-24T18:25:05Z) - XPersona: Evaluating Multilingual Personalized Chatbot [76.00426517401894]
我々はペルソナ・チャットの多言語拡張(XPersona)を提案する。
我々のデータセットには、多言語パーソナライズされたエージェントの構築と評価のための英語以外の6言語でのペルソナ会話が含まれています。
論文 参考訳(メタデータ) (2020-03-17T07:52:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。