論文の概要: Jetsons at FinNLP 2024: Towards Understanding the ESG Impact of a News Article using Transformer-based Models
- arxiv url: http://arxiv.org/abs/2404.00386v1
- Date: Sat, 30 Mar 2024 14:58:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 03:59:36.736377
- Title: Jetsons at FinNLP 2024: Towards Understanding the ESG Impact of a News Article using Transformer-based Models
- Title(参考訳): FinNLP 2024におけるJetsons: Transformer-based Modelを用いたニュース記事のESG影響の理解に向けて
- Authors: Parag Pravin Dakle, Alolika Gon, Sihan Zha, Liang Wang, SaiKrishna Rallabandi, Preethi Raghavan,
- Abstract要約: 本稿では,Jetsonsチームによる多言語ESG影響時間推定タスクにおける様々なアプローチについて述べる。
共有タスクデータセットは、英語、フランス語、韓国語、日本語の2,059のニュースタイトルと記事で構成されている。
インパクト型分類タスクでは,XLM-RoBERTaモデルを英語で最初にランク付けしたカスタム微調整戦略を用いて微調整した。
- 参考スコア(独自算出の注目度): 7.010041097710465
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we describe the different approaches explored by the Jetsons team for the Multi-Lingual ESG Impact Duration Inference (ML-ESG-3) shared task. The shared task focuses on predicting the duration and type of the ESG impact of a news article. The shared task dataset consists of 2,059 news titles and articles in English, French, Korean, and Japanese languages. For the impact duration classification task, we fine-tuned XLM-RoBERTa with a custom fine-tuning strategy and using self-training and DeBERTa-v3 using only English translations. These models individually ranked first on the leaderboard for Korean and Japanese and in an ensemble for the English language, respectively. For the impact type classification task, our XLM-RoBERTa model fine-tuned using a custom fine-tuning strategy ranked first for the English language.
- Abstract(参考訳): 本稿では,Jetsonsチームが,ML-ESG-3(Multi-Lingual ESG Impact Duration Inference, ML-ESG-3)共有タスクに対して行ったアプローチについて述べる。
共有タスクは、ニュース記事のESG影響の持続時間と種類を予測することに焦点を当てる。
共有タスクデータセットは、英語、フランス語、韓国語、日本語の2,059のニュースタイトルと記事で構成されている。
XLM-RoBERTaをカスタムな微調整戦略で微調整し、自己学習とDeBERTa-v3を英語翻訳のみで用いる。
これらのモデルはそれぞれ、韓国語と日本語のリーダーボードに、英語のアンサンブルにそれぞれランクインした。
インパクト型分類タスクでは,XLM-RoBERTaモデルを英語で最初にランク付けしたカスタム微調整戦略を用いて微調整した。
関連論文リスト
- Wav2Gloss: Generating Interlinear Glossed Text from Speech [78.64412090339044]
音声から4つの言語アノテーションを自動抽出するタスクであるWav2Glossを提案する。
音声からのインターリニア・グロッシド・テキスト・ジェネレーションの今後の研究の基盤となる基盤となるものについて述べる。
論文 参考訳(メタデータ) (2024-03-19T21:45:29Z) - EaSyGuide : ESG Issue Identification Framework leveraging Abilities of
Generative Large Language Models [5.388543737855513]
本稿では,多言語環境・社会・コーポレートガバナンス問題識別(ML-ESG)におけるFinNLP-2023共有課題への参加について述べる。
課題は、MSCI ESG評価ガイドラインで定義された35のESGキーイシューに基づいて、ニュース記事の分類を行うことである。
我々のアプローチは、ゼロショットとGPT3Mix拡張技術とともに、CerebrasGPT、OPT、Pythiaモデルを採用した英語とフランス語のサブタスクに焦点を当てている。
論文 参考訳(メタデータ) (2023-06-11T12:25:02Z) - SheffieldVeraAI at SemEval-2023 Task 3: Mono and multilingual approaches
for news genre, topic and persuasion technique classification [3.503844033591702]
本稿では,SemEval-2023 Task 3: Finding the category, the framing, and the Persuasion Technique in online news in a multi-lingual setup。
論文 参考訳(メタデータ) (2023-03-16T15:54:23Z) - BJTU-WeChat's Systems for the WMT22 Chat Translation Task [66.81525961469494]
本稿では,WMT'22チャット翻訳タスクに対して,北京地東大学とWeChat AIを共同で提案する。
Transformerに基づいて、いくつかの有効な変種を適用します。
本システムでは,0.810と0.946のCOMETスコアを達成している。
論文 参考訳(メタデータ) (2022-11-28T02:35:04Z) - A Unified Strategy for Multilingual Grammatical Error Correction with
Pre-trained Cross-Lingual Language Model [100.67378875773495]
本稿では,多言語文法的誤り訂正のための汎用的かつ言語に依存しない戦略を提案する。
我々の手法は言語固有の操作を使わずに多様な並列GECデータを生成する。
NLPCC 2018 Task 2のデータセット(中国語)で最先端の結果を達成し、Falko-Merlin(ドイツ語)とRULEC-GEC(ロシア語)の競合性能を得る。
論文 参考訳(メタデータ) (2022-01-26T02:10:32Z) - MCL@IITK at SemEval-2021 Task 2: Multilingual and Cross-lingual
Word-in-Context Disambiguation using Augmented Data, Signals, and
Transformers [1.869621561196521]
我々はSemEval 2021 Task 2: Multilingual and cross-lingual Word-in-Context Disambiguation (MCL-WiC) の解法を提案する。
目的は、両方の文に共通する単語が同じ意味を引き起こすかどうかを検出することである。
多言語とクロスリンガルの両方の設定のためのシステムを提出します。
論文 参考訳(メタデータ) (2021-04-04T08:49:28Z) - WangchanBERTa: Pretraining transformer-based Thai Language Models [2.186960190193067]
大規模で重複したクリーンなトレーニングセット(総サイズ78GB)上で,RoBERTaベースアーキテクチャに基づく言語モデルを事前訓練する。
我々は,タイの最も重要な保存空間に特有のテキスト処理規則を適用する。
また, 単語レベル, 音節レベル, SentencePiece のトークン化を, より小さなデータセットで実験し, 下流の性能に及ぼすトークン化の影響について検討した。
論文 参考訳(メタデータ) (2021-01-24T03:06:34Z) - Mixed-Lingual Pre-training for Cross-lingual Summarization [54.4823498438831]
言語間の要約は、ソース言語の記事に対する対象言語の要約を作成することを目的としている。
本稿では,翻訳のような言語間タスクと,マスク付き言語モデルのようなモノリンガルタスクの両方を活用する混合言語事前学習に基づくソリューションを提案する。
本モデルでは,2.82(中国語)と1.15(中国語,英語)のROUGE-1スコアを最先端の結果に対して改善する。
論文 参考訳(メタデータ) (2020-10-18T00:21:53Z) - NEMO: Frequentist Inference Approach to Constrained Linguistic Typology
Feature Prediction in SIGTYP 2020 Shared Task [83.43738174234053]
タイプ的特徴間の相関関係を表現するために頻繁な推論を用い、この表現を用いて、個々の特徴を予測する単純なマルチクラス推定器を訓練する。
テスト言語149言語に対して,マイクロ平均精度0.66を達成できた。
論文 参考訳(メタデータ) (2020-10-12T19:25:43Z) - XGLUE: A New Benchmark Dataset for Cross-lingual Pre-training,
Understanding and Generation [100.09099800591822]
XGLUEは、大規模な言語間の事前トレーニングモデルのトレーニングに使用できる、新しいベンチマークデータセットである。
XGLUEは、自然言語理解と生成シナリオの両方をカバーする、11の多様化されたタスクを提供する。
論文 参考訳(メタデータ) (2020-04-03T07:03:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。