論文の概要: Using contextual sentence analysis models to recognize ESG concepts
- arxiv url: http://arxiv.org/abs/2207.01402v1
- Date: Mon, 4 Jul 2022 13:33:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-05 13:26:46.277754
- Title: Using contextual sentence analysis models to recognize ESG concepts
- Title(参考訳): 文脈文解析モデルを用いたESG概念の認識
- Authors: Elvys Linhares Pontes and Mohamed Benjannet and Jose G. Moreno and
Antoine Doucet
- Abstract要約: 本稿では,ラ・ロシェル大学のTrading Central LabsとL3i研究所のFinSim-4評価キャンペーンの2つのサブタスクへの参加について要約する。
第1のサブタスクは「Fortia ESG分類」を新しい辞書エントリで強化することを目的としており、第2のタスクは、ESGに関連する要因に関して文を「持続可能」または「持続不可能」に分類することを目的としている。
- 参考スコア(独自算出の注目度): 8.905370601886112
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper summarizes the joint participation of the Trading Central Labs and
the L3i laboratory of the University of La Rochelle on both sub-tasks of the
Shared Task FinSim-4 evaluation campaign. The first sub-task aims to enrich the
'Fortia ESG taxonomy' with new lexicon entries while the second one aims to
classify sentences to either 'sustainable' or 'unsustainable' with respect to
ESG (Environment, Social and Governance) related factors. For the first
sub-task, we proposed a model based on pre-trained Sentence-BERT models to
project sentences and concepts in a common space in order to better represent
ESG concepts. The official task results show that our system yields a
significant performance improvement compared to the baseline and outperforms
all other submissions on the first sub-task. For the second sub-task, we
combine the RoBERTa model with a feed-forward multi-layer perceptron in order
to extract the context of sentences and classify them. Our model achieved high
accuracy scores (over 92%) and was ranked among the top 5 systems.
- Abstract(参考訳): 本稿では,ラ・ロシェル大学のTrading Central LabsとL3i研究所が共同で,Shared Task FinSim-4評価キャンペーンの両サブタスクに参加したことを要約する。
第1のサブタスクは「Fortia ESG分類」を新たな辞書エントリで強化することを目的としており、第2のタスクは、ESGに関連する要因に関して、文を「持続可能」または「持続不可能」に分類することを目的としている。
最初のサブタスクでは,ESG概念をより良く表現するために,文や概念を共通空間に投影するために,事前学習したSentence-BERTモデルに基づくモデルを提案した。
その結果,本システムではベースラインに比べて性能が向上し,第1次サブタスクでは他の全てのサブタスクよりも優れていた。
第2のサブタスクでは、RoBERTaモデルとフィードフォワード多層パーセプトロンを組み合わせることで、文のコンテキストを抽出し、それらを分類する。
我々のモデルは高い精度(92%以上)を達成し、上位5システムにランクインした。
関連論文リスト
- A Large-Scale Evaluation of Speech Foundation Models [110.95827399522204]
音声処理ユニバーサルパフォーマンスベンチマーク(SUPERB)を構築し,基礎モデルパラダイムの有効性について検討する。
凍結基盤モデルを用いてSUPERBにおける音声処理タスクに対処する統合マルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-15T00:03:16Z) - Co-guiding for Multi-intent Spoken Language Understanding [53.30511968323911]
本稿では,2つのタスク間の相互指導を実現するための2段階のフレームワークを実装した,コガイドネットと呼ばれる新しいモデルを提案する。
第1段階では,単一タスクによる教師付きコントラスト学習を提案し,第2段階ではコガイドによる教師付きコントラスト学習を提案する。
マルチインテリジェントSLU実験の結果,我々のモデルは既存のモデルよりも大きなマージンで優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-22T08:06:22Z) - Effective Cross-Task Transfer Learning for Explainable Natural Language
Inference with T5 [50.574918785575655]
2つのタスクのパフォーマンス向上という文脈において、逐次微調整とマルチタスク学習のモデルを比較した。
この結果から,2つのタスクのうち,第1のタスクにおいて逐次マルチタスク学習は良好に調整できるが,第2のタスクでは性能が低下し,過度な適合に苦しむことが明らかとなった。
論文 参考訳(メタデータ) (2022-10-31T13:26:08Z) - UU-Tax at SemEval-2022 Task 3: Improving the generalizability of
language models for taxonomy classification through data augmentation [0.0]
本稿では,SemEval-2022 Task 3 PreTENS: Presuposed Taxonomies Evaluation Neural Network Semanticsについて述べる。
タスクの目標は、文に含まれる名詞対の間の分類学的関係によって、ある文が受け入れられているか否かを識別することである。
より優れた分類のための言語モデルの堅牢性と一般化性を高める効果的な方法を提案する。
論文 参考訳(メタデータ) (2022-10-07T07:41:28Z) - JARVIS: A Neuro-Symbolic Commonsense Reasoning Framework for
Conversational Embodied Agents [14.70666899147632]
本稿では,モジュール型,一般化型,解釈可能な対話型エンボディエージェントのためのニューロシンボリック・コモンセンス推論フレームワークを提案する。
我々のフレームワークは、ダイアログヒストリー(EDH)、TfD、Two-Agent Task Completion(TATC)を含む3つのダイアログベースの実施タスクに対して、最先端(SOTA)結果を達成する。
私たちのモデルは、Alexa Prize SimBot Public Benchmark Challengeで第1位です。
論文 参考訳(メタデータ) (2022-08-28T18:30:46Z) - SUPERB-SG: Enhanced Speech processing Universal PERformance Benchmark
for Semantic and Generative Capabilities [76.97949110580703]
各種音声タスクの事前学習モデルを評価するための新しいベンチマークであるSUPERB-SGを紹介する。
データドメインのシフトの下で、事前訓練されたモデルによって学習された表現の堅牢性をテストするために、軽量な方法論を使用します。
また,SUPERB-SGのタスク多様性とタスク監督の限定が,モデル表現の一般化性を評価する効果的な方法であることを示す。
論文 参考訳(メタデータ) (2022-03-14T04:26:40Z) - Controllable Abstractive Dialogue Summarization with Sketch Supervision [56.59357883827276]
本モデルは,最大50.79のROUGE-Lスコアを持つ最大対話要約コーパスSAMSumの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-28T19:05:36Z) - IIE-NLP-Eyas at SemEval-2021 Task 4: Enhancing PLM for ReCAM with
Special Tokens, Re-Ranking, Siamese Encoders and Back Translation [8.971288666318719]
本稿では,SemEval-2021 Task 4: Reading of Abstract Meaningの3つのサブタスクについて紹介する。
バックボーンモデル(RoBERTa)に適応した多くの単純かつ効果的なアプローチをうまく設計する。
実験結果から,本手法はベースラインシステムと比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-02-25T10:51:48Z) - BUT-FIT at SemEval-2020 Task 4: Multilingual commonsense [1.433758865948252]
本稿では,SemEval 2020 Task 4 - Commonsense Validation and ExplanationにおけるBUT-FITチームの作業について述べる。
サブタスクAとBでは、事前訓練された言語表現モデル(ALBERT)とデータ拡張に基づいている。
我々は、多言語モデルと機械翻訳データセットを用いて、別の言語であるチェコ語のタスクを解く実験を行った。
強い機械翻訳システムでは, 精度の低下を少なく抑えながら, 他言語で使用することができることを示す。
論文 参考訳(メタデータ) (2020-08-17T12:45:39Z) - Joint Contextual Modeling for ASR Correction and Language Understanding [60.230013453699975]
言語理解(LU)と協調してASR出力の文脈的言語補正を行うマルチタスクニューラルアプローチを提案する。
そこで本研究では,市販のASRおよびLUシステムの誤差率を,少量のドメイン内データを用いてトレーニングしたジョイントモデルと比較して14%削減できることを示した。
論文 参考訳(メタデータ) (2020-01-28T22:09:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。