論文の概要: IITK at the FinSim Task: Hypernym Detection in Financial Domain via
Context-Free and Contextualized Word Embeddings
- arxiv url: http://arxiv.org/abs/2007.11201v1
- Date: Wed, 22 Jul 2020 04:56:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 22:21:43.023203
- Title: IITK at the FinSim Task: Hypernym Detection in Financial Domain via
Context-Free and Contextualized Word Embeddings
- Title(参考訳): finsimタスクにおけるiitk:文脈自由および文脈化単語埋め込みによる金融領域におけるハイパーニム検出
- Authors: Vishal Keswani, Sakshi Singh, Ashutosh Modi
- Abstract要約: FinSim 2020の課題は、財務用語を外部オントロジーにおいて最も関連性の高いハイパーネム(またはトップレベル)概念に分類することである。
我々は、文脈に依存しない単語埋め込みと文脈に依存しない単語埋め込みの両方を分析に活用する。
我々のシステムは、平均的なランクと精度の両方に基づいて、第1位にランク付けします。
- 参考スコア(独自算出の注目度): 2.515934533974176
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present our approaches for the FinSim 2020 shared task on
"Learning Semantic Representations for the Financial Domain". The goal of this
task is to classify financial terms into the most relevant hypernym (or
top-level) concept in an external ontology. We leverage both context-dependent
and context-independent word embeddings in our analysis. Our systems deploy
Word2vec embeddings trained from scratch on the corpus (Financial Prospectus in
English) along with pre-trained BERT embeddings. We divide the test dataset
into two subsets based on a domain rule. For one subset, we use unsupervised
distance measures to classify the term. For the second subset, we use simple
supervised classifiers like Naive Bayes, on top of the embeddings, to arrive at
a final prediction. Finally, we combine both the results. Our system ranks 1st
based on both the metrics, i.e., mean rank and accuracy.
- Abstract(参考訳): 本稿では、金融分野における意味表現の学習に関するfinsim 2020の課題について述べる。
このタスクの目標は、財務用語を外部オントロジーにおいて最も関連するハイパーニム(またはトップレベル)概念に分類することである。
文脈依存語と文脈依存語の両方を解析に活用する。
当社のシステムは,コーパス(Financial Prospectus,英語)のスクラッチからトレーニングしたWord2vec埋め込みと,事前学習したBERT埋め込みをデプロイする。
テストデータセットをドメインルールに基づいて2つのサブセットに分割する。
ある部分集合では、教師なし距離測度を用いて用語を分類する。
2つ目の部分集合では、埋め込みの上にあるネイブベイズのような単純な教師付き分類器を使って最終的な予測を行う。
最後に、両方の結果を組み合わせます。
我々のシステムは、平均ランクと精度の両方に基づいて、第1位にランク付けします。
関連論文リスト
- Unify word-level and span-level tasks: NJUNLP's Participation for the
WMT2023 Quality Estimation Shared Task [59.46906545506715]
我々は、WMT 2023 Quality Estimation (QE)共有タスクにNJUNLPチームを紹介する。
私たちのチームは2つのサブタスクすべてで英語とドイツ語のペアの予測を提出しました。
我々のモデルは、単語レベルと細粒度エラースパン検出サブタスクの両方において、英語とドイツ語で最高の結果を得た。
論文 参考訳(メタデータ) (2023-09-23T01:52:14Z) - Relational Sentence Embedding for Flexible Semantic Matching [86.21393054423355]
文埋め込みの可能性を明らかにするための新しいパラダイムとして,文埋め込み(Sentence Embedding, RSE)を提案する。
RSEは文関係のモデル化に有効で柔軟性があり、一連の最先端の埋め込み手法より優れている。
論文 参考訳(メタデータ) (2022-12-17T05:25:17Z) - DICoE@FinSim-3: Financial Hypernym Detection using Augmented Terms and
Distance-based Features [2.6599014990168834]
金融分野における意味的類似を学習する第3の共有タスクであるFinSim-3に、チームDICoEを提出する。
このタスクは金融分野における一連の用語を提供し、金融オントロジーから最も関連性の高いハイパーネムに分類する必要がある。
私たちの最高の成績は、タスクのリーダーボードで4位にランクインした。
論文 参考訳(メタデータ) (2021-09-30T08:01:48Z) - Yseop at FinSim-3 Shared Task 2021: Specializing Financial Domain
Learning with Phrase Representations [0.0]
我々は、FinSim-3共有タスク2021:財務分野のセマンティック類似性を学ぶためのアプローチを提示する。
このタスクの目的は、金融ドメインから与えられた用語のリストを最も関連性の高いハイパーネムに正しく分類することである。
平均精度は0.917、平均ランクは1.141である。
論文 参考訳(メタデータ) (2021-08-21T10:53:12Z) - Term Expansion and FinBERT fine-tuning for Hypernym and Synonym Ranking
of Financial Terms [0.0]
本稿では,ハイパニムと同義語対応問題を解くシステムを提案する。
IJCAI-2021におけるFinNLPワークショップの共有作業であるFinSim-3に参加するために,これらのシステムを設計した。
我々の最高のパフォーマンスモデル(精度:0.917、ランク:1.156)は、FIBOのラベル階層を用いて作成された拡張ラベルセット上で、微調整されたSentenceBERT(Reimers et al., 2019)によって開発された。
論文 参考訳(メタデータ) (2021-07-29T06:17:44Z) - JSI at the FinSim-2 task: Ontology-Augmented Financial Concept
Classification [2.2559617939136505]
オントロジはここ数年、機械推論にますます使われています。
本稿では,財務領域の分類問題に対するオントロジーの実践的利用について述べる。
本稿では,与えられた概念を上記の説明にマッピングし,最も関連性の高いハイパーネムをグラフ検索する手法を提案する。
論文 参考訳(メタデータ) (2021-06-17T03:56:15Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - R$^2$-Net: Relation of Relation Learning Network for Sentence Semantic
Matching [58.72111690643359]
文意味マッチングのための関係学習ネットワーク(R2-Net)を提案する。
最初にBERTを使用して、グローバルな視点から入力文をエンコードします。
次に、cnnベースのエンコーダは、ローカルな視点からキーワードやフレーズ情報をキャプチャするように設計されている。
関係情報抽出にラベルを十分に活用するために,関係分類タスクの自己教師付き関係性を導入する。
論文 参考訳(メタデータ) (2020-12-16T13:11:30Z) - RUSSE'2020: Findings of the First Taxonomy Enrichment Task for the
Russian language [70.27072729280528]
本稿では,ロシア語の分類学的豊か化に関する最初の共有課題の結果について述べる。
16チームがこのタスクに参加し、半数以上が提供されたベースラインを上回った。
論文 参考訳(メタデータ) (2020-05-22T13:30:37Z) - Words aren't enough, their order matters: On the Robustness of Grounding
Visual Referring Expressions [87.33156149634392]
視覚的参照表現認識のための標準ベンチマークであるRefCOgを批判的に検討する。
83.7%のケースでは言語構造に関する推論は不要である。
比較学習とマルチタスク学習の2つの手法を提案し,ViLBERTのロバスト性を高める。
論文 参考訳(メタデータ) (2020-05-04T17:09:15Z) - UiO-UvA at SemEval-2020 Task 1: Contextualised Embeddings for Lexical
Semantic Change Detection [5.099262949886174]
本稿では,時とともに意味的ドリフトの度合いで単語をランク付けするSubtask 2に焦点を当てた。
最も効果的なアルゴリズムは、平均的なトークン埋め込みとトークン埋め込み間のペア距離のコサイン類似性に依存する。
論文 参考訳(メタデータ) (2020-04-30T18:43:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。