論文の概要: Ahead of the Text: Leveraging Entity Preposition for Financial Relation
Extraction
- arxiv url: http://arxiv.org/abs/2308.04534v1
- Date: Tue, 8 Aug 2023 18:56:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 16:21:37.007467
- Title: Ahead of the Text: Leveraging Entity Preposition for Financial Relation
Extraction
- Title(参考訳): テキストに先駆けて:金融関係抽出のためのエンティティ前置詞の活用
- Authors: Stefan Pasch, Dimitrios Petridis
- Abstract要約: ACM KDF-SIGIR 2023コンペティションの文脈では、REFindと呼ばれる金融関係のデータセット上で、エンティティ関係タスクを実行した。
テキスト分類のためのトランスフォーマーベース言語モデルであるRogerta-largeをラベル付きトレーニングセットを用いて微調整し,エンティティの関係を予測した。
提案手法の結果として,コンペティションの公開リーダボードにおいて,第1位を獲得しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In the context of the ACM KDF-SIGIR 2023 competition, we undertook an entity
relation task on a dataset of financial entity relations called REFind. Our
top-performing solution involved a multi-step approach. Initially, we inserted
the provided entities at their corresponding locations within the text.
Subsequently, we fine-tuned the transformer-based language model roberta-large
for text classification by utilizing a labeled training set to predict the
entity relations. Lastly, we implemented a post-processing phase to identify
and handle improbable predictions generated by the model. As a result of our
methodology, we achieved the 1st place ranking on the competition's public
leaderboard.
- Abstract(参考訳): ACM KDF-SIGIR 2023コンペティションの文脈では、REFindと呼ばれる金融関係のデータセット上で、エンティティ関係タスクを実行する。
私たちのトップパフォーマンスソリューションには、多段階のアプローチがありました。
最初は、提供されたエンティティをテキスト内の対応する場所に挿入しました。
その後,テキスト分類のためのトランスフォーマーベース言語モデルRogerta-largeをラベル付きトレーニングセットを用いて微調整し,実体関係を予測する。
最後に,モデルが生成する疑わしい予測を識別し処理するために,処理後フェーズを実装した。
提案手法により,大会の公開リーダーボードにおいて,第1位にランクインした。
関連論文リスト
- Coherent Entity Disambiguation via Modeling Topic and Categorical
Dependency [87.16283281290053]
従来のエンティティ曖昧化(ED)メソッドは、参照コンテキストと候補エンティティの一致するスコアに基づいて予測を行う、識別パラダイムを採用している。
本稿では,エンティティ予測のコヒーレンス向上を目的とした新しいデザインを備えたEDシステムであるCoherentedを提案する。
我々は、人気EDベンチマークにおいて、平均1.3F1ポイントの改善により、最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-11-06T16:40:13Z) - A Read-and-Select Framework for Zero-shot Entity Linking [33.15662306409253]
本稿では、エンティティの曖昧さの主成分をモデル化し、リード・アンド・セレクト(ReS)フレームワークを提案する。
提案手法は,確立されたゼロショットエンティティリンクデータセットであるZESHELに対して,2.55%のマイクロ平均精度向上を実現している。
論文 参考訳(メタデータ) (2023-10-19T04:08:10Z) - Alibaba-Translate China's Submission for WMT 2022 Quality Estimation
Shared Task [80.22825549235556]
我々は、UniTEという品質評価共有タスクにおいて、文レベルのMQMベンチマークを提出する。
具体的には、トレーニング中に3種類の入力形式と事前学習された言語モデルを組み合わせたUniTEのフレームワークを用いる。
その結果,我々のモデルは多言語・英語・ロシア語設定では第1位,英語・ドイツ語・中国語設定では第2位に達した。
論文 参考訳(メタデータ) (2022-10-18T08:55:27Z) - Alibaba-Translate China's Submission for WMT 2022 Metrics Shared Task [61.34108034582074]
私たちはUNITE(Unified Translation Evaluation)のコアアイデアに基づいてシステムを構築します。
モデル事前学習の段階では、まず擬似ラベル付きデータ例をUNITEの継続事前訓練に適用する。
微調整の段階では、過去のWMTコンペティションの直接評価(DA)と多次元品質メトリクス(MQM)のデータの両方を使用します。
論文 参考訳(メタデータ) (2022-10-18T08:51:25Z) - Entity-Graph Enhanced Cross-Modal Pretraining for Instance-level Product
Retrieval [152.3504607706575]
本研究の目的は, 細粒度製品カテゴリを対象とした, 弱制御型マルチモーダル・インスタンスレベルの製品検索である。
まず、Product1Mデータセットをコントリビュートし、2つの実際のインスタンスレベルの検索タスクを定義します。
我々は、マルチモーダルデータから重要な概念情報を組み込むことができるより効果的なクロスモーダルモデルを訓練するために活用する。
論文 参考訳(メタデータ) (2022-06-17T15:40:45Z) - Yseop at FinSim-3 Shared Task 2021: Specializing Financial Domain
Learning with Phrase Representations [0.0]
我々は、FinSim-3共有タスク2021:財務分野のセマンティック類似性を学ぶためのアプローチを提示する。
このタスクの目的は、金融ドメインから与えられた用語のリストを最も関連性の高いハイパーネムに正しく分類することである。
平均精度は0.917、平均ランクは1.141である。
論文 参考訳(メタデータ) (2021-08-21T10:53:12Z) - Cross-Supervised Joint-Event-Extraction with Heterogeneous Information
Networks [61.950353376870154]
Joint-event- Extractは、トリガとエンティティのタグからなるタグセットを備えたシーケンスからシーケンスまでのラベリングタスクである。
トリガやエンティティの抽出を交互に監督するクロススーパーバイザードメカニズム(CSM)を提案する。
我々の手法は、エンティティとトリガー抽出の両方において最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2020-10-13T11:51:17Z) - Automated Concatenation of Embeddings for Structured Prediction [75.44925576268052]
本稿では, 埋め込みの自動結合(ACE)を提案し, 構造予測タスクにおける埋め込みのより優れた結合を見つけるプロセスを自動化する。
我々は、強化学習の戦略に従い、制御器のパラメータを最適化し、タスクモデルの精度に基づいて報酬を計算する。
論文 参考訳(メタデータ) (2020-10-10T14:03:20Z) - Entity and Evidence Guided Relation Extraction for DocRED [33.69481141963074]
この課題に対して,共同トレーニングフレームワークE2GRE(Entity and Evidence Guided Relation extract)を提案する。
事前訓練された言語モデル(例えばBERT, RoBERTa)への入力としてエンティティ誘導シーケンスを導入する。
これらのエンティティ誘導シーケンスは、事前訓練された言語モデル(LM)がエンティティに関連するドキュメントの領域に集中するのに役立ちます。
我々は最近リリースされた関係抽出のための大規模データセットDocREDに対するE2GREアプローチを評価した。
論文 参考訳(メタデータ) (2020-08-27T17:41:23Z) - IITK at the FinSim Task: Hypernym Detection in Financial Domain via
Context-Free and Contextualized Word Embeddings [2.515934533974176]
FinSim 2020の課題は、財務用語を外部オントロジーにおいて最も関連性の高いハイパーネム(またはトップレベル)概念に分類することである。
我々は、文脈に依存しない単語埋め込みと文脈に依存しない単語埋め込みの両方を分析に活用する。
我々のシステムは、平均的なランクと精度の両方に基づいて、第1位にランク付けします。
論文 参考訳(メタデータ) (2020-07-22T04:56:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。