論文の概要: SemEval 2023 Task 9: Multilingual Tweet Intimacy Analysis
- arxiv url: http://arxiv.org/abs/2210.01108v2
- Date: Fri, 3 Feb 2023 17:32:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 11:27:29.076821
- Title: SemEval 2023 Task 9: Multilingual Tweet Intimacy Analysis
- Title(参考訳): SemEval 2023 Task 9: Multilingual Tweet Intimacy Analysis
- Authors: Jiaxin Pei, V\'itor Silva, Maarten Bos, Yozon Liu, Leonardo Neves,
David Jurgens and Francesco Barbieri
- Abstract要約: MINTは新しいMultilingual INTimacy分析データセットで、10言語13,372ツイートをカバーしている。
我々は、人気のある多言語事前訓練言語モデルのリストをベンチマークした。
- 参考スコア(独自算出の注目度): 15.778953197215822
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose MINT, a new Multilingual INTimacy analysis dataset covering 13,372
tweets in 10 languages including English, French, Spanish, Italian, Portuguese,
Korean, Dutch, Chinese, Hindi, and Arabic. We benchmarked a list of popular
multilingual pre-trained language models. The dataset is released along with
the SemEval 2023 Task 9: Multilingual Tweet Intimacy Analysis
(https://sites.google.com/umich.edu/semeval-2023-tweet-intimacy).
- Abstract(参考訳): MINTは、英語、フランス語、スペイン語、イタリア語、ポルトガル語、韓国語、オランダ語、中国語、ヒンディー語、アラビア語を含む10の言語で13,372のツイートをカバーする新しい多言語インテミシー分析データセットである。
人気のある多言語事前学習言語モデルのリストをベンチマークした。
データセットはSemEval 2023 Task 9: Multilingual Tweet Intimacy Analysis (https://sites.google.com/umich.edu/semeval-2023-tweet-intimacy)と共にリリースされた。
関連論文リスト
- The Belebele Benchmark: a Parallel Reading Comprehension Dataset in 122 Language Variants [80.4837840962273]
私たちは122の言語変種にまたがるデータセットであるBelebeleを紹介します。
このデータセットは、高、中、低リソース言語におけるテキストモデルの評価を可能にする。
論文 参考訳(メタデータ) (2023-08-31T17:43:08Z) - PolyLM: An Open Source Polyglot Large Language Model [57.64420154135178]
我々は6400億(B)トークンでトレーニングされた多言語大言語モデル(LLM)であるPolyLMについて述べる。
その多言語的能力を高めるために,1) バイリンガルデータをトレーニングデータに統合し,2) 事前学習中に英語以外のデータの比率を30%から60%に引き上げるカリキュラム学習戦略を採用する。
さらに,モデル微調整のために,132.7Kの多言語命令を自動的に生成する多言語自己指示手法を提案する。
論文 参考訳(メタデータ) (2023-07-12T09:00:37Z) - DN at SemEval-2023 Task 12: Low-Resource Language Text Classification
via Multilingual Pretrained Language Model Fine-tuning [0.0]
感情分析のための既存のモデルやデータセットは、英語や中国語などの高リソース言語向けに開発されている。
AfriSenti-SemEval 2023 Shared Task 12は、低リソースのアフリカの言語に対する感情分析モデルを評価することで、このギャップを埋めることを目的としている。
そこで我々は,多言語XLM-Rモデルを多言語モデルに適用し,様々なデータに基づいて分類ヘッドを訓練した。
論文 参考訳(メタデータ) (2023-05-04T07:28:45Z) - UIO at SemEval-2023 Task 12: Multilingual fine-tuning for sentiment
classification in low-resource languages [0.0]
本研究では,事前学習中に見つからない言語における感情分析の資源として,多言語大言語モデルをいかに活用できるかを示す。
言語は事前訓練で使用される言語と関連し、言語データは様々なコードスイッチングを含む。
最終細調整のための単言語データセットと多言語データセットの両方を実験し、数千のサンプルを含むデータセットを用いて、単言語細調整が最良の結果をもたらすことを確かめる。
論文 参考訳(メタデータ) (2023-04-27T13:51:18Z) - OPI at SemEval 2023 Task 9: A Simple But Effective Approach to
Multilingual Tweet Intimacy Analysis [0.0]
本稿では,SemEval 2023多言語ツイート親和性分析共有タスクについて述べる。
このタスクの目的は、Twitter投稿の親密さレベルを10言語で評価することであった。
提案手法は10言語中5言語にランクインし,全言語で最高得点を得た。
論文 参考訳(メタデータ) (2023-04-14T13:49:28Z) - tmn at SemEval-2023 Task 9: Multilingual Tweet Intimacy Detection using
XLM-T, Google Translate, and Ensemble Learning [2.28438857884398]
本稿では,SemEval-2023 Task 9: Multilingual Tweet Intimacy Analysisのために設計されたトランスフォーマーベースのシステムについて述べる。
このタスクの目的は、ツイートの親密さを1(全く親密ではない)から5(非常に親密)まで予測することであった。
論文 参考訳(メタデータ) (2023-04-08T15:50:16Z) - Making a MIRACL: Multilingual Information Retrieval Across a Continuum
of Languages [62.730361829175415]
MIRACLは、WSDM 2023 Cupチャレンジのために構築した多言語データセットです。
18の言語にまたがるアドホック検索に焦点を当てている。
我々の目標は、言語連続体における検索を改善する研究を加速させることです。
論文 参考訳(メタデータ) (2022-10-18T16:47:18Z) - Cross-lingual Intermediate Fine-tuning improves Dialogue State Tracking [84.50302759362698]
我々は、事前訓練された多言語モデルの中間微調整により、伝達学習プロセスを強化する。
我々は、パラレルおよび会話型の映画字幕データセットを使用して、言語間中間タスクを設計する。
パラレルなMultiWoZデータセットとMultilingual WoZデータセットの精度を20%向上させる。
論文 参考訳(メタデータ) (2021-09-28T11:22:38Z) - MuRIL: Multilingual Representations for Indian Languages [3.529875637780551]
インドは、1369の合理化された言語と方言が全国で話されている多言語社会です。
それにもかかわらず、今日の最先端の多言語システムは、インド(IN)言語で最適に動作します。
IN言語に特化した多言語言語モデルであるMuRILを提案します。
論文 参考訳(メタデータ) (2021-03-19T11:06:37Z) - Multilingual Multimodal Pre-training for Zero-Shot Cross-Lingual
Transfer of Vision-Language Models [144.85290716246533]
視覚言語モデルのゼロショット言語間移動について検討する。
本稿では,文脈化多言語マルチモーダル埋め込みを学習するトランスフォーマティブモデルを提案する。
論文 参考訳(メタデータ) (2021-03-16T04:37:40Z) - CoVoST: A Diverse Multilingual Speech-To-Text Translation Corpus [57.641761472372814]
CoVoSTは11言語から英語への多言語による音声からテキストへの翻訳コーパスである。
11,000人以上の話者と60以上のアクセントで多様化した。
CoVoSTはCC0ライセンスでリリースされており、無料で利用できる。
論文 参考訳(メタデータ) (2020-02-04T14:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。