論文の概要: Causal BERT : Language models for causality detection between events
expressed in text
- arxiv url: http://arxiv.org/abs/2012.05453v2
- Date: Thu, 28 Jan 2021 21:15:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 06:40:04.768550
- Title: Causal BERT : Language models for causality detection between events
expressed in text
- Title(参考訳): Causal BERT : テキストで表現された事象間の因果検出のための言語モデル
- Authors: Vivek Khetan, Roshni Ramnani, Mayuresh Anand, Shubhashis Sengupta and
Andrew E.Fano
- Abstract要約: イベント間の因果関係の理解は、ヘルスケア、ビジネスリスク管理、財務など、多くの分野で役立ちます。
自然言語イベント間の「因果関係」は、暗黙的に表現されることが多いため、単に挑戦を続ける。
提案手法は3つの異なるデータ分布において最先端の性能を達成し,因果図の抽出に利用できる。
- 参考スコア(独自算出の注目度): 1.0756038762528868
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Causality understanding between events is a critical natural language
processing task that is helpful in many areas, including health care, business
risk management and finance. On close examination, one can find a huge amount
of textual content both in the form of formal documents or in content arising
from social media like Twitter, dedicated to communicating and exploring
various types of causality in the real world. Recognizing these "Cause-Effect"
relationships between natural language events continues to remain a challenge
simply because it is often expressed implicitly. Implicit causality is hard to
detect through most of the techniques employed in literature and can also, at
times be perceived as ambiguous or vague. Also, although well-known datasets do
exist for this problem, the examples in them are limited in the range and
complexity of the causal relationships they depict especially when related to
implicit relationships. Most of the contemporary methods are either based on
lexico-semantic pattern matching or are feature-driven supervised methods.
Therefore, as expected these methods are more geared towards handling explicit
causal relationships leading to limited coverage for implicit relationships and
are hard to generalize. In this paper, we investigate the language model's
capabilities for causal association among events expressed in natural language
text using sentence context combined with event information, and by leveraging
masked event context with in-domain and out-of-domain data distribution. Our
proposed methods achieve the state-of-art performance in three different data
distributions and can be leveraged for extraction of a causal diagram and/or
building a chain of events from unstructured text.
- Abstract(参考訳): イベント間の因果関係の理解は重要な自然言語処理タスクであり、医療、ビジネスリスク管理、金融など多くの分野において有用である。
精査すると、形式的な文書か、あるいはtwitterのようなソーシャルメディアから発生したコンテンツの両方で、現実世界における様々な種類の因果関係のコミュニケーションと探索を専門とする、膨大な量のテキストコンテンツを見つけることができる。
自然言語イベント間の「因果関係」を認識することは、しばしば暗黙的に表現されるため、依然として課題である。
暗黙の因果関係は文学で使われる技法のほとんどを通して検出することは困難であり、時には曖昧さや曖昧さと見なされることもある。
また、この問題にはよく知られたデータセットが存在するが、それらの例では、特に暗黙的な関係に関係づけられた場合の因果関係の範囲や複雑さが制限されている。
現代のメソッドのほとんどはlexico-semanticパターンマッチングに基づいているか、機能駆動の教師付きメソッドである。
したがって, これらの手法は, 暗黙的な関係を限定的に扱えるよう, 明確な因果関係を扱うことを目的としており, 一般化が困難である。
本稿では,文コンテキストとイベント情報を組み合わせて自然言語テキストで表現されたイベント間の因果関係を関連づける言語モデルの能力について検討し,マスキングされたイベントコンテキストをドメイン内およびドメイン外データ分散に活用する。
提案手法は,3つの異なるデータ分布において最先端のパフォーマンスを実現し,因果図の抽出や非構造化テキストからのイベント連鎖の構築に利用できる。
関連論文リスト
- Complex Reasoning over Logical Queries on Commonsense Knowledge Graphs [61.796960984541464]
論理クエリをサンプリングして作成した新しいデータセットであるCOM2(COMplex COMmonsense)を提示する。
我々は、手書きのルールと大きな言語モデルを用いて、複数の選択とテキスト生成の質問に言語化します。
COM2でトレーニングされた言語モデルでは、複雑な推論能力が大幅に改善されている。
論文 参考訳(メタデータ) (2024-03-12T08:13:52Z) - Recognizing Conditional Causal Relationships about Emotions and Their
Corresponding Conditions [37.16991100831717]
入力された感情と原因のペアが、異なる文脈下で有効な因果関係を持つかどうかを判断する新しいタスクを提案する。
陰性サンプリングを用いて最終データセットを構築し、因果関係のない文書の数とバランスをとる。
論文 参考訳(メタデータ) (2023-11-28T07:47:25Z) - Causal schema induction for knowledge discovery [21.295680010103602]
本稿では、時間構造、事象構造、因果構造を組み合わせたテキストグラフスキーマのデータセットであるTorquestraを紹介する。
データセットを3つの知識発見タスクにベンチマークし、それぞれのモデルの構築と評価を行います。
その結果、因果構造を利用するシステムは、類似の因果的意味成分を共有するテキストを特定するのに効果的であることがわかった。
論文 参考訳(メタデータ) (2023-03-27T16:55:49Z) - Contextual information integration for stance detection via
cross-attention [59.662413798388485]
スタンス検出は、著者の目標に対する姿勢を特定することを扱う。
既存のスタンス検出モデルの多くは、関連するコンテキスト情報を考慮していないため、制限されている。
文脈情報をテキストとして統合する手法を提案する。
論文 参考訳(メタデータ) (2022-11-03T15:04:29Z) - Assessing the Limits of the Distributional Hypothesis in Semantic
Spaces: Trait-based Relational Knowledge and the Impact of Co-occurrences [6.994580267603235]
この研究は、自然言語の有意義な表現を捉えるために、データに必要とされることの比較的無意味な経路に寄与する。
これは、英語とスペイン語のセマンティックスペースが特定の種類の関係知識をいかにうまく捉えているかを評価することを必要とする。
論文 参考訳(メタデータ) (2022-05-16T12:09:40Z) - Did the Cat Drink the Coffee? Challenging Transformers with Generalized
Event Knowledge [59.22170796793179]
Transformers Language Models (TLMs) を数学的適合のテクトダイナミックな評価のためのベンチマークで検証した。
以上の結果から, TLM は SDM に匹敵する性能が得られることが示された。
しかし、さらなる分析は、TLMがイベント知識の重要な側面を捉えていないことを一貫して示唆している。
論文 参考訳(メタデータ) (2021-07-22T20:52:26Z) - Event Argument Extraction using Causal Knowledge Structures [9.56216681584111]
イベント引数抽出とは、特定のイベントのために構造化されていないテキストから構造化情報を抽出するタスクを指します。
既存の作業のほとんどは、このタスクを文レベルでモデル化し、コンテキストをローカルスコープに制限する。
複雑なイベント引数の抽出を支援するために,ドキュメントレベルのイベント情報を注入する外部知識支援アプローチを提案する。
論文 参考訳(メタデータ) (2021-05-02T13:59:07Z) - Competency Problems: On Finding and Removing Artifacts in Language Data [50.09608320112584]
複雑な言語理解タスクでは、すべての単純な特徴相関が突発的であると論じる。
人間バイアスを考慮したコンピテンシー問題に対するデータ作成の難しさを理論的に分析します。
論文 参考訳(メタデータ) (2021-04-17T21:34:10Z) - Lexically-constrained Text Generation through Commonsense Knowledge
Extraction and Injection [62.071938098215085]
我々は、ある入力概念のセットに対して妥当な文を生成することを目的としているcommongenベンチマークに焦点を当てる。
生成したテキストの意味的正しさを高めるための戦略を提案する。
論文 参考訳(メタデータ) (2020-12-19T23:23:40Z) - Learning Causal Bayesian Networks from Text [15.739271050022891]
因果関係は人工知能システムにおける推論と意思決定の基礎を形成する。
概念レベルで人文言語から因果関係を自動的に推定する手法を提案する。
論文 参考訳(メタデータ) (2020-11-26T03:57:56Z) - Joint Constrained Learning for Event-Event Relation Extraction [94.3499255880101]
本稿では,イベント・イベント関係をモデル化するための制約付き協調学習フレームワークを提案する。
具体的には、このフレームワークは、複数の時間的および部分的関係内の論理的制約を強制する。
我々は,共同学習手法が,共同ラベル付きデータの欠如を効果的に補うことを示す。
論文 参考訳(メタデータ) (2020-10-13T22:45:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。