論文の概要: Learning a Structural Causal Model for Intuition Reasoning in
Conversation
- arxiv url: http://arxiv.org/abs/2305.17727v2
- Date: Tue, 16 Jan 2024 09:07:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 02:45:44.721891
- Title: Learning a Structural Causal Model for Intuition Reasoning in
Conversation
- Title(参考訳): 会話における直観推論のための構造因果モデル学習
- Authors: Hang Chen, Bingyu Liao, Jing Luo, Wenjing Zhu, Xinyu Yang
- Abstract要約: NLP研究の重要な側面である推論は、一般的なモデルによって適切に対処されていない。
我々は、各発話がどのように情報チャネルを受信し、活性化するかを説明する会話認知モデル(CCM)を開発した。
変分推論を利用することで、暗黙的な原因の代用を探索し、その観測不可能性の問題に対処し、証拠の低い境界を通して発話の因果表現を再構築する。
- 参考スコア(独自算出の注目度): 20.243323155177766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reasoning, a crucial aspect of NLP research, has not been adequately
addressed by prevailing models including Large Language Model. Conversation
reasoning, as a critical component of it, remains largely unexplored due to the
absence of a well-designed cognitive model. In this paper, inspired by
intuition theory on conversation cognition, we develop a conversation cognitive
model (CCM) that explains how each utterance receives and activates channels of
information recursively. Besides, we algebraically transformed CCM into a
structural causal model (SCM) under some mild assumptions, rendering it
compatible with various causal discovery methods. We further propose a
probabilistic implementation of the SCM for utterance-level relation reasoning.
By leveraging variational inference, it explores substitutes for implicit
causes, addresses the issue of their unobservability, and reconstructs the
causal representations of utterances through the evidence lower bounds.
Moreover, we constructed synthetic and simulated datasets incorporating
implicit causes and complete cause labels, alleviating the current situation
where all available datasets are implicit-causes-agnostic. Extensive
experiments demonstrate that our proposed method significantly outperforms
existing methods on synthetic, simulated, and real-world datasets. Finally, we
analyze the performance of CCM under latent confounders and propose theoretical
ideas for addressing this currently unresolved issue.
- Abstract(参考訳): NLP研究の重要な側面である推論は、大規模言語モデルを含む一般的なモデルでは適切に対処されていない。
会話推論は、その重要な要素として、よく設計された認知モデルがないため、ほとんど未解明のままである。
本稿では,会話認知に関する直観理論に触発された会話認知モデル(ccm)を開発し,各発話が情報チャネルをどのように受信し,再帰的に活性化するかを説明する。
さらに, 代数的にCCMを構造因果モデル (Strucical causal model, SCM) に変換し, 様々な因果発見法と互換性を持たせた。
さらに、発話レベルの関係推論のためのSCMの確率的実装を提案する。
変分推論を利用することで、暗黙的原因の代用品を探索し、観測不能の問題に対処し、エビデンスの下限を通じて発話の因果表現を再構築する。
さらに,すべての利用可能なデータセットが暗黙的原因非依存である現状を緩和し,暗黙的原因と完全原因ラベルを組み込んだ合成およびシミュレーションデータセットを構築した。
広範な実験により,提案手法は,合成,シミュレーション,実世界のデータセットにおいて,既存の手法を大幅に上回ることを示した。
最後に,潜在共同設立者の下でのccmの性能を分析し,現在解決されていない問題に対処するための理論的アイデアを提案する。
関連論文リスト
- Revisiting Spurious Correlation in Domain Generalization [12.745076668687748]
データ生成プロセスにおける因果関係を記述するために,構造因果モデル(SCM)を構築した。
さらに、スプリアス相関に基づくメカニズムを徹底的に分析する。
そこで本研究では,OOD一般化における共起バイアスの制御について,相対性スコア重み付き推定器を導入して提案する。
論文 参考訳(メタデータ) (2024-06-17T13:22:00Z) - Distribution-consistency Structural Causal Models [6.276417011421679]
我々は,新しいテクスト分布-一貫性仮定を導入し,それに合わせて分布-一貫性構造因果モデル(DiscoSCM)を提案する。
モデルキャパシティの強化を具体化するために,DiscoSCM単独で実用的重要性を有する新たな因果パラメータ,一貫性のテキスト化(textitthe probability of consistency)を導入する。
論文 参考訳(メタデータ) (2024-01-29T06:46:15Z) - Causal Optimal Transport of Abstractions [8.642152250082368]
因果抽象化(CA)理論は、複数の構造因果モデル(SCM)を異なるレベルの粒度で関連付けるための公式な基準を確立する。
基礎となるSCMの完全な知識を前提とせずに、観測データや介入データから抽象地図を学習する最初の方法であるCOTAを提案する。
合成および実世界の問題に対してCOTAを広範囲に評価し,非因果的・独立的・集合的COTA定式化に対するCOTAの優位性を示す。
論文 参考訳(メタデータ) (2023-12-13T12:54:34Z) - Targeted Reduction of Causal Models [55.11778726095353]
因果表現学習(Causal Representation Learning)は、シミュレーションで解釈可能な因果パターンを明らかにするための有望な道を提供する。
本稿では、複雑な相互作用可能なモデルを因果因子の簡潔な集合に凝縮する方法であるTCR(Targeted Causal Reduction)を紹介する。
複雑なモデルから解釈可能な高レベルな説明を生成する能力は、玩具や機械システムで実証されている。
論文 参考訳(メタデータ) (2023-11-30T15:46:22Z) - SSL Framework for Causal Inconsistency between Structures and
Representations [23.035761299444953]
深層学習と因果発見のクロスポリン化は、画像、ビデオ、テキストなどの統計的でないデータ形式における因果関係の解明を目指す、急成長する研究分野を触媒している。
我々は、不確定データに適した介入戦略を理論的に開発し、因果一貫性条件(CCC)を導出する。
CCCは様々な分野で重要な役割を果たす可能性がある。
論文 参考訳(メタデータ) (2023-10-28T08:29:49Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Inducing Causal Structure for Abstractive Text Summarization [76.1000380429553]
要約データの因果構造を誘導する構造因果モデル(SCM)を導入する。
本稿では因果的要因を模倣できる因果的表現を学習するための因果性インスピレーション付き系列列列モデル(CI-Seq2Seq)を提案する。
2つの広く使われているテキスト要約データセットの実験結果は、我々のアプローチの利点を示している。
論文 参考訳(メタデータ) (2023-08-24T16:06:36Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z) - Case-Based Abductive Natural Language Inference [4.726777092009554]
事例ベース帰納的自然言語推論(CB-ANLI)
事例ベース帰納的自然言語推論(CB-ANLI)
論文 参考訳(メタデータ) (2020-09-30T09:50:39Z) - A Critical View of the Structural Causal Model [89.43277111586258]
相互作用を全く考慮せずに原因と効果を識別できることが示される。
本稿では,因果モデルの絡み合った構造を模倣する新たな逆行訓練法を提案する。
我々の多次元手法は, 合成および実世界の両方のデータセットにおいて, 文献的手法よりも優れている。
論文 参考訳(メタデータ) (2020-02-23T22:52:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。