論文の概要: Yseop at FinSim-3 Shared Task 2021: Specializing Financial Domain
Learning with Phrase Representations
- arxiv url: http://arxiv.org/abs/2108.09485v1
- Date: Sat, 21 Aug 2021 10:53:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-25 07:42:00.255749
- Title: Yseop at FinSim-3 Shared Task 2021: Specializing Financial Domain
Learning with Phrase Representations
- Title(参考訳): yseop at finsim-3 shared task 2021: specializing financial domain learning with phrase representations
- Authors: Hanna Abi Akl, Dominique Mariko, Hugues de Mazancourt
- Abstract要約: 我々は、FinSim-3共有タスク2021:財務分野のセマンティック類似性を学ぶためのアプローチを提示する。
このタスクの目的は、金融ドメインから与えられた用語のリストを最も関連性の高いハイパーネムに正しく分類することである。
平均精度は0.917、平均ランクは1.141である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present our approaches for the FinSim-3 Shared Task 2021:
Learning Semantic Similarities for the Financial Domain. The aim of this shared
task is to correctly classify a list of given terms from the financial domain
into the most relevant hypernym (or top-level) concept in an external ontology.
For our system submission, we evaluate two methods: a Sentence-RoBERTa
(SRoBERTa) embeddings model pre-trained on a custom corpus, and a dual
word-sentence embeddings model that builds on the first method by improving the
proposed baseline word embeddings construction using the FastText model to
boost the classification performance. Our system ranks 2nd overall on both
metrics, scoring 0.917 on Average Accuracy and 1.141 on Mean Rank.
- Abstract(参考訳): 本稿では,FinSim-3共有タスク2021:財務分野のセマンティック類似性を学ぶためのアプローチを提案する。
この共有タスクの目的は、金融ドメインから与えられた用語のリストを、外部オントロジーにおいて最も関連するハイパーnym(またはトップレベル)概念に正しく分類することである。
そこで,本研究では,カスタムコーパス上で事前学習した文-roberta(sroberta)埋め込みモデルと,ファストテキストモデルを用いて提案するベースライン単語埋め込み構造を改善し,分類性能を向上させる2つの文-sentence埋め込みモデルの評価を行った。
両指標で総合2位、平均精度で0.917、平均ランクで1.141。
関連論文リスト
- Co-guiding for Multi-intent Spoken Language Understanding [53.30511968323911]
本稿では,2つのタスク間の相互指導を実現するための2段階のフレームワークを実装した,コガイドネットと呼ばれる新しいモデルを提案する。
第1段階では,単一タスクによる教師付きコントラスト学習を提案し,第2段階ではコガイドによる教師付きコントラスト学習を提案する。
マルチインテリジェントSLU実験の結果,我々のモデルは既存のモデルよりも大きなマージンで優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-22T08:06:22Z) - Ahead of the Text: Leveraging Entity Preposition for Financial Relation
Extraction [0.0]
ACM KDF-SIGIR 2023コンペティションの文脈では、REFindと呼ばれる金融関係のデータセット上で、エンティティ関係タスクを実行した。
テキスト分類のためのトランスフォーマーベース言語モデルであるRogerta-largeをラベル付きトレーニングセットを用いて微調整し,エンティティの関係を予測した。
提案手法の結果として,コンペティションの公開リーダボードにおいて,第1位を獲得しました。
論文 参考訳(メタデータ) (2023-08-08T18:56:52Z) - Prompt Algebra for Task Composition [131.97623832435812]
素早いチューニングを伴うビジュアル言語モデルを基本分類器として検討する。
合成分類器の性能向上のための制約付きプロンプトチューニングを提案する。
UTZapposでは、最高のベースモデルに対する分類精度を平均8.45%向上させる。
論文 参考訳(メタデータ) (2023-06-01T03:20:54Z) - CompoundPiece: Evaluating and Improving Decompounding Performance of
Language Models [77.45934004406283]
複合語を構成語に分割する作業である「分解」を体系的に研究する。
We introduced a dataset of 255k compound and non-compound words across 56 various languages obtained from Wiktionary。
分割のための専用モデルを訓練するための新しい手法を導入する。
論文 参考訳(メタデータ) (2023-05-23T16:32:27Z) - DICoE@FinSim-3: Financial Hypernym Detection using Augmented Terms and
Distance-based Features [2.6599014990168834]
金融分野における意味的類似を学習する第3の共有タスクであるFinSim-3に、チームDICoEを提出する。
このタスクは金融分野における一連の用語を提供し、金融オントロジーから最も関連性の高いハイパーネムに分類する必要がある。
私たちの最高の成績は、タスクのリーダーボードで4位にランクインした。
論文 参考訳(メタデータ) (2021-09-30T08:01:48Z) - Term Expansion and FinBERT fine-tuning for Hypernym and Synonym Ranking
of Financial Terms [0.0]
本稿では,ハイパニムと同義語対応問題を解くシステムを提案する。
IJCAI-2021におけるFinNLPワークショップの共有作業であるFinSim-3に参加するために,これらのシステムを設計した。
我々の最高のパフォーマンスモデル(精度:0.917、ランク:1.156)は、FIBOのラベル階層を用いて作成された拡張ラベルセット上で、微調整されたSentenceBERT(Reimers et al., 2019)によって開発された。
論文 参考訳(メタデータ) (2021-07-29T06:17:44Z) - NLP-CIC @ PRELEARN: Mastering prerequisites relations, from handcrafted
features to embeddings [68.97335984455059]
我々は,EVALITA 2020において,前提条件付き関係学習タスク(PRELEARN)のシステムと成果を報告した。
このタスクは、概念のペアが前提条件を持つかどうかを分類することを目的としている。
F1スコアが0.887点、0.690点の2つのシナリオでそれぞれ1位にランクインした。
論文 参考訳(メタデータ) (2020-11-07T12:13:09Z) - SLM: Learning a Discourse Language Representation with Sentence
Unshuffling [53.42814722621715]
談話言語表現を学習するための新しい事前学習目的である文レベル言語モデリングを導入する。
本モデルでは,この特徴により,従来のBERTの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-10-30T13:33:41Z) - BRUMS at SemEval-2020 Task 3: Contextualised Embeddings for Predicting
the (Graded) Effect of Context in Word Similarity [9.710464466895521]
本稿では,SemEval-2020 Task 3: Graded Word similarity in Contextを提案する。
このシステムは、スタックド埋め込みや平均埋め込みなど、タスク固有の適応を持つ、最先端の文脈化された単語埋め込みを利用する。
最終ランキングに従えば、我々のアプローチはフィンランドのサブタスク2の1位を維持しながら、各言語の上位5のソリューションにランクインする。
論文 参考訳(メタデータ) (2020-10-13T10:25:18Z) - NEMO: Frequentist Inference Approach to Constrained Linguistic Typology
Feature Prediction in SIGTYP 2020 Shared Task [83.43738174234053]
タイプ的特徴間の相関関係を表現するために頻繁な推論を用い、この表現を用いて、個々の特徴を予測する単純なマルチクラス推定器を訓練する。
テスト言語149言語に対して,マイクロ平均精度0.66を達成できた。
論文 参考訳(メタデータ) (2020-10-12T19:25:43Z) - IITK at the FinSim Task: Hypernym Detection in Financial Domain via
Context-Free and Contextualized Word Embeddings [2.515934533974176]
FinSim 2020の課題は、財務用語を外部オントロジーにおいて最も関連性の高いハイパーネム(またはトップレベル)概念に分類することである。
我々は、文脈に依存しない単語埋め込みと文脈に依存しない単語埋め込みの両方を分析に活用する。
我々のシステムは、平均的なランクと精度の両方に基づいて、第1位にランク付けします。
論文 参考訳(メタデータ) (2020-07-22T04:56:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。