論文の概要: Extracting Qualitative Causal Structure with Transformer-Based NLP
- arxiv url: http://arxiv.org/abs/2108.13304v1
- Date: Fri, 20 Aug 2021 20:15:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-05 10:35:26.035760
- Title: Extracting Qualitative Causal Structure with Transformer-Based NLP
- Title(参考訳): Transformer-based NLPによる定性的因果構造抽出
- Authors: Scott E. Friedman and Ian H. Magnusson and Sonja M. Schmer-Galunder
- Abstract要約: 本稿では,言語で記述された変数や要因を共同で識別・抽出するトランスフォーマーに基づくNLPアーキテクチャを提案する。
このアプローチを実証し、学術出版物、ニュース記事、ソーシャルメディアからのテキスト入力を処理する2つのユースケースから有望な結果を含む。
- 参考スコア(独自算出の注目度): 0.48342038441006785
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Qualitative causal relationships compactly express the direction, dependency,
temporal constraints, and monotonicity constraints of discrete or continuous
interactions in the world. In everyday or academic language, we may express
interactions between quantities (e.g., sleep decreases stress), between
discrete events or entities (e.g., a protein inhibits another protein's
transcription), or between intentional or functional factors (e.g., hospital
patients pray to relieve their pain). This paper presents a transformer-based
NLP architecture that jointly identifies and extracts (1) variables or factors
described in language, (2) qualitative causal relationships over these
variables, and (3) qualifiers and magnitudes that constrain these causal
relationships. We demonstrate this approach and include promising results from
in two use cases, processing textual inputs from academic publications, news
articles, and social media.
- Abstract(参考訳): 定性的因果関係は、世界の離散的または連続的な相互作用の方向、依存性、時間的制約、単調性制約をコンパクトに表現する。
日常言語や学術言語では、量(例えば睡眠がストレスを減少させる)、離散的な事象や実体(例えばタンパク質が他のタンパク質の転写を阻害する)、意図的または機能的要因(例えば、病院の患者は痛みを和らげるように祈る)の間の相互作用を表現できる。
本稿では,(1)言語に記述された変数や要因,(2)これらの変数に対する質的因果関係,(3)因果関係を制約する修飾子や等級を共同で同定し抽出するトランスフォーマティブベースのnlpアーキテクチャを提案する。
このアプローチを実証し,学術出版物,ニュース記事,ソーシャルメディアからのテキスト入力処理という2つのユースケースから得られる有望な結果を紹介する。
関連論文リスト
- Inducing Causal Structure for Abstractive Text Summarization [76.1000380429553]
要約データの因果構造を誘導する構造因果モデル(SCM)を導入する。
本稿では因果的要因を模倣できる因果的表現を学習するための因果性インスピレーション付き系列列列モデル(CI-Seq2Seq)を提案する。
2つの広く使われているテキスト要約データセットの実験結果は、我々のアプローチの利点を示している。
論文 参考訳(メタデータ) (2023-08-24T16:06:36Z) - CIParsing: Unifying Causality Properties into Multiple Human Parsing [82.32620538918812]
既存のMHP(Multiple Human Parsing)の手法は、画像とラベル付けされた身体部分との間の基礎となる関係を取得するために統計モデルを適用している。
我々はCIParsingと呼ばれる因果性にインスパイアされた構文解析のパラダイムを提示し、人間の解析に2つの因果性を含む基本的な因果原理に従う。
CIParsingはプラグイン・アンド・プレイ方式で設計されており、既存のMHPモデルに統合することができる。
論文 参考訳(メタデータ) (2023-08-23T15:56:26Z) - Nonlinearity, Feedback and Uniform Consistency in Causal Structural
Learning [0.8158530638728501]
Causal Discoveryは、観測データから因果構造を学習するための自動探索手法を見つけることを目的としている。
この論文は因果発見における2つの疑問に焦点をあてる: (i) k-三角形の忠実性の代替定義を提供すること (i) (i) はガウス分布の族に適用されるとき強い忠実性よりも弱いこと (ii) 修正版の強忠実性が成り立つという仮定のもとに。
論文 参考訳(メタデータ) (2023-08-15T01:23:42Z) - A Causal Framework for Decomposing Spurious Variations [68.12191782657437]
我々はマルコフモデルとセミマルコフモデルの急激な変分を分解するツールを開発する。
突発効果の非パラメトリック分解を可能にする最初の結果を証明する。
説明可能なAIや公平なAIから、疫学や医学における疑問まで、いくつかの応用がある。
論文 参考訳(メタデータ) (2023-06-08T09:40:28Z) - Causal Deep Learning [77.49632479298745]
因果性は、現実世界の問題を解決する方法を変える可能性がある。
しかし因果関係は、実際にテストできない重要な仮定を必要とすることが多い。
我々は、因果性に関する新しい考え方を提案します。
論文 参考訳(メタデータ) (2023-03-03T19:19:18Z) - Uninformative Input Features and Counterfactual Invariance: Two
Perspectives on Spurious Correlations in Natural Language [19.416033815407804]
Spurious correlations is a threat to the trustworthiness of natural language processing systems。
本稿では,PCFGにおける特徴ラベル相関を生じさせる3つの異なる条件を解析する。
入力特徴はラベルと非常に稀な状況において個別に相関するので、真の堅牢性を脅かす刺激的な相関を識別するためにドメイン知識を適用する必要がある。
論文 参考訳(メタデータ) (2022-04-09T14:46:39Z) - From Unstructured Text to Causal Knowledge Graphs: A Transformer-Based
Approach [4.133048890906828]
本稿では,言語で記述された変数や要因を含む知識グラフを共同で抽出するトランスフォーマーに基づくNLPアーキテクチャを提案する。
実世界のドメインにおける知識グラフの正確な抽出と、グラフに基づく推論を行う認知システムのための知識グラフの実用性を示す。
論文 参考訳(メタデータ) (2022-02-23T20:29:55Z) - Text-based NP Enrichment [51.403543011094975]
我々は、テキストベースのNPエンリッチメント(TNE)のタスクを確立する。つまり、各NPに、テキスト内の他のNPとの間に保持されるすべての前置詞による関係を豊かにする。
人間はこのような関係をシームレスに回復するが、現在の最先端モデルは問題の暗黙的な性質のためにそれらと戦っている。
この問題に対する最初の大規模データセットを構築し、正式なフレーミングとアノテーションの範囲を提供し、データを解析し、タスクに微調整されたニューラルネットワークモデルの結果を報告する。
論文 参考訳(メタデータ) (2021-09-24T17:23:25Z) - Linguistic dependencies and statistical dependence [76.89273585568084]
文脈における単語の確率を推定するために,事前学習した言語モデルを用いる。
最大CPMI木は非文脈PMI推定値から抽出した木よりも言語的依存関係によく対応していることがわかった。
論文 参考訳(メタデータ) (2021-04-18T02:43:37Z) - Learning Informative Representations of Biomedical Relations with Latent
Variable Models [2.4366811507669115]
本稿では,任意に柔軟な分布を持つ潜在変数モデルを提案する。
我々のモデルは、パラメータが少なく、トレーニングがかなり速く、両方のタスクの強いベースラインと競合する結果が得られることを実証する。
論文 参考訳(メタデータ) (2020-11-20T08:56:31Z) - Estimating Causal Effects with the Neural Autoregressive Density
Estimator [6.59529078336196]
我々は、Pearlのdo-calculusフレームワーク内の因果効果を推定するために、神経自己回帰密度推定器を使用する。
本手法は,変数間の相互作用を明示的にモデル化することなく,非線形システムから因果効果を抽出できることを示す。
論文 参考訳(メタデータ) (2020-08-17T13:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。