論文の概要: IIT_kgp at FinCausal 2020, Shared Task 1: Causality Detection using
Sentence Embeddings in Financial Reports
- arxiv url: http://arxiv.org/abs/2011.07670v1
- Date: Mon, 16 Nov 2020 00:57:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 00:05:35.802530
- Title: IIT_kgp at FinCausal 2020, Shared Task 1: Causality Detection using
Sentence Embeddings in Financial Reports
- Title(参考訳): IIT_kgp at FinCausal 2020, Shared Task 1: Causality Detection using Sentence Embeddings in Financial Reports
- Authors: Arka Mitra, Harshvardhan Srivastava, Yugam Tiwari
- Abstract要約: この研究は、文中の因果関係を識別する最初のサブタスクと関連付けられている。
BERT (Large) は、財務文書や報告書の文の因果性を検出するタスクにおいて、F1スコア0.958を与えられた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The paper describes the work that the team submitted to FinCausal 2020 Shared
Task. This work is associated with the first sub-task of identifying causality
in sentences. The various models used in the experiments tried to obtain a
latent space representation for each of the sentences. Linear regression was
performed on these representations to classify whether the sentence is causal
or not. The experiments have shown BERT (Large) performed the best, giving a F1
score of 0.958, in the task of detecting the causality of sentences in
financial texts and reports. The class imbalance was dealt with a modified loss
function to give a better metric score for the evaluation.
- Abstract(参考訳): この記事では、FinCausal 2020 Shared Taskにチームが提出した作業について説明する。
この研究は文中の因果関係を識別する最初のサブタスクに関連している。
実験で用いられた様々なモデルは、各文に対して潜在空間表現を得ることを試みた。
これらの表現に対して線形回帰を行い,文が因果であるか否かを分類した。
実験の結果、BERT (Large) は、財務文書や報告書の文の因果性を検出する作業において、F1スコア0.958の成績を示した。
クラス不均衡は、評価により良いメトリックスコアを与えるために修正された損失関数に対処された。
関連論文リスト
- Causal Micro-Narratives [62.47217054314046]
テキストから因果マイクロナラティブを分類する新しい手法を提案する。
これらの物語は、対象対象の因果関係と/または効果の文レベルの説明である。
論文 参考訳(メタデータ) (2024-10-07T17:55:10Z) - Do LLMs Think Fast and Slow? A Causal Study on Sentiment Analysis [136.13390762317698]
感性分析(SA)は、製品レビューのようなテキストで表される感情を特定することを目的としている。
レビューとそれに関連する感情を踏まえると、この研究は2つのタスクの組み合わせとしてSAを定式化します。
総感情スコアがすべての文レベル感情の平均を近似するとC1、総感情スコアがピークとエンドの感情の平均を近似するとC2と分類する。
論文 参考訳(メタデータ) (2024-04-17T04:04:34Z) - TEDB System Description to a Shared Task on Euphemism Detection 2022 [0.0]
テキスト分類の最先端手法であるトランスフォーマーモデルについて検討した。
0.816 F1スコアの最良の結果は,特徴抽出器としてのエウヘミズム検出/TimeLMs予測RoBERTaモデルである。
論文 参考訳(メタデータ) (2023-01-16T20:37:56Z) - Event Causality Identification with Causal News Corpus -- Shared Task 3,
CASE 2022 [3.0775142635531685]
事象因果同定 2022 症例の共有タスクには2つのサブタスクが含まれていた。
サブタスク1は、ある文が因果関係を含むか否かを予測するために参加者に要求する。
サブタスク2では、参加者は因果文ごとに原因、効果、信号のスパンを特定する必要があった。
論文 参考訳(メタデータ) (2022-11-22T10:34:09Z) - Causality Detection using Multiple Annotation Decision [0.0]
この作業は、抗議ニュースコーパスの因果関係を検出することを目的としたShared Task 3のSubtask 1に関連している。
実験の結果、改良されたクロスエントロピーで未解決のベルトが他よりも優れており、カウサル・ニューズ・コーパスのデータセットでF1スコアが0.8501に達した。
論文 参考訳(メタデータ) (2022-10-26T16:50:10Z) - RuArg-2022: Argument Mining Evaluation [69.87149207721035]
本稿は、ロシア語テキストを扱う議論分析システムの最初のコンペティションの主催者の報告である。
新型コロナウイルスの感染拡大に伴う3つの話題について、9,550文(ソーシャルメディア投稿記事)のコーパスを用意した。
両タスクで第一位を獲得したシステムは、BERTアーキテクチャのNLI(Natural Language Inference)変種を使用した。
論文 参考訳(メタデータ) (2022-06-18T17:13:37Z) - CIS2: A Simplified Commonsense Inference Evaluation for Story Prose [21.32351425259654]
私たちは、コンテキストコモンセンス推論(CCI)と呼ばれる、ストーリーの散文中のコモンセンス推論の領域に注目します。
文選択におけるタスクコンテキストコモンセンス推論(CIS$2$)を導入する。
論文 参考訳(メタデータ) (2022-02-16T06:14:37Z) - DSC-IITISM at FinCausal 2021: Combining POS tagging with Attention-based
Contextual Representations for Identifying Causal Relationships in Financial
Documents [0.0]
因果検出は、情報検索、イベント予測、質問応答、財務分析、市場調査に応用されている。
本研究では,変換器を用いて財務文書の因果関係を同定し,抽出する手法について検討する。
最適手法は, ブラインドテストにおけるF1スコア0.9551, Exact Matchスコア0.8777を達成する。
論文 参考訳(メタデータ) (2021-10-31T13:09:19Z) - Narrative Incoherence Detection [76.43894977558811]
本稿では,文間セマンティック理解のための新たなアリーナとして,物語不整合検出の課題を提案する。
複数文の物語を考えると、物語の流れに意味的な矛盾があるかどうかを決定します。
論文 参考訳(メタデータ) (2020-12-21T07:18:08Z) - On the Sentence Embeddings from Pre-trained Language Models [78.45172445684126]
本稿では,BERT埋め込みにおける意味情報が完全に活用されていないことを論じる。
BERTは常に文の非滑らかな異方性意味空間を誘導し,その意味的類似性を損なう。
本稿では,非教師対象で学習した正規化フローにより,異方性文の埋め込み分布を滑らかで等方性ガウス分布に変換することを提案する。
論文 参考訳(メタデータ) (2020-11-02T13:14:57Z) - L2R2: Leveraging Ranking for Abductive Reasoning [65.40375542988416]
学習システムの帰納的推論能力を評価するために,帰納的自然言語推論タスク(alpha$NLI)を提案する。
新たな$L2R2$アプローチは、Learning-to-rankフレームワークの下で提案されている。
ARTデータセットの実験は、公開リーダボードの最先端に到達します。
論文 参考訳(メタデータ) (2020-05-22T15:01:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。