論文の概要: ML4C: Seeing Causality Through Latent Vicinity
- arxiv url: http://arxiv.org/abs/2110.00637v4
- Date: Sun, 16 Apr 2023 05:01:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 01:13:49.763592
- Title: ML4C: Seeing Causality Through Latent Vicinity
- Title(参考訳): ML4C:潜伏ウイルスによる因果関係
- Authors: Haoyue Dai, Rui Ding, Yuanyuan Jiang, Shi Han, Dongmei Zhang
- Abstract要約: Supervised Causal Learningは、観察データから因果関係を学習することを目的としている。
本稿では,基本的な問題に対処する最初の試みとして,監督のメリットと,それがどのようなメリットをもたらすのか,について述べる。
- 参考スコア(独自算出の注目度): 32.94807153974104
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Supervised Causal Learning (SCL) aims to learn causal relations from
observational data by accessing previously seen datasets associated with ground
truth causal relations. This paper presents a first attempt at addressing a
fundamental question: What are the benefits from supervision and how does it
benefit? Starting from seeing that SCL is not better than random guessing if
the learning target is non-identifiable a priori, we propose a two-phase
paradigm for SCL by explicitly considering structure identifiability. Following
this paradigm, we tackle the problem of SCL on discrete data and propose ML4C.
The core of ML4C is a binary classifier with a novel learning target: it
classifies whether an Unshielded Triple (UT) is a v-structure or not.
Specifically, starting from an input dataset with the corresponding skeleton
provided, ML4C orients each UT once it is classified as a v-structure. These
v-structures are together used to construct the final output. To address the
fundamental question of SCL, we propose a principled method for ML4C
featurization: we exploit the vicinity of a given UT (i.e., the neighbors of UT
in skeleton), and derive features by considering the conditional dependencies
and structural entanglement within the vicinity. We further prove that ML4C is
asymptotically correct. Last but foremost, thorough experiments conducted on
benchmark datasets demonstrate that ML4C remarkably outperforms other
state-of-the-art algorithms in terms of accuracy, reliability, robustness and
tolerance. In summary, ML4C shows promising results on validating the
effectiveness of supervision for causal learning. Our codes are publicly
available at https://github.com/microsoft/ML4C.
- Abstract(参考訳): Supervised Causal Learning (SCL) は、地上の真理因果関係に関連するデータセットにアクセスすることによって、観測データから因果関係を学習することを目的としている。
本稿では,基本的な問題に対する最初の試みとして,監督によるメリットと,そのメリットについて述べる。
学習対象が事前認識可能でない場合,SCLがランダムな推測よりも優れているという認識から始めて,構造識別可能性を明確に考慮して,SCLの2相パラダイムを提案する。
このパラダイムに従うと、離散データにおけるSCLの問題に取り組み、ML4Cを提案する。
ML4Cの中核は、新しい学習目標を持つ二項分類器であり、unshielded Triple(UT)がv構造であるか否かを分類する。
具体的には、対応する骨格が提供される入力データセットから始まるML4Cは、V構造に分類された後に各UTを向き付ける。
これらのv構造は、最終的な出力を構成するために一緒に使用される。
SCLの基本的問題に対処するため、我々は、所定のUT(例えば、骨格中のUTの隣人)の近傍を利用して、その近傍における条件依存性と構造的絡みを考慮し特徴を導出するML4C成果化の原理的手法を提案する。
さらに,ML4Cが漸近的に正しいことを証明した。
最後に、ベンチマークデータセット上で実施された徹底的な実験は、ML4Cが精度、信頼性、堅牢性、耐久性の点で他の最先端アルゴリズムよりも著しく優れていることを示している。
まとめると、ML4Cは、因果学習における監督の有効性を検証するための有望な結果を示す。
私たちのコードはhttps://github.com/microsoft/ML4Cで公開されています。
関連論文リスト
- Larger Language Models Don't Care How You Think: Why Chain-of-Thought Prompting Fails in Subjective Tasks [25.562937159039038]
In-Context Learning (ICL) in Large Language Models (LLM) が自然言語処理の主流の手法として登場した。
ICLはタスク先行の検索に大きく依存しており、タスクを実行するための"学習"は少なくなっている。
驚くべきことに、CoT(Chain-of-Thought)は、大きな言語モデルではICLと同じ後方崩壊に悩まされている。
論文 参考訳(メタデータ) (2024-09-10T03:06:17Z) - The All-Seeing Project V2: Towards General Relation Comprehension of the Open World [58.40101895719467]
本稿では,画像のオブジェクト関係を理解するために設計された新しいモデルとデータセットであるAll-Seeing Project V2を紹介する。
本稿では,テキスト生成,オブジェクトローカライゼーション,関係理解の定式化を関係会話タスクに統合するAll-Seeing Model V2を提案する。
我々のモデルは、画像内の全ての物体を知覚・認識するだけでなく、それらの間の複雑な関係グラフの把握にも優れている。
論文 参考訳(メタデータ) (2024-02-29T18:59:17Z) - RecDCL: Dual Contrastive Learning for Recommendation [65.6236784430981]
本稿では、RecDCLという2つのコントラスト学習推薦フレームワークを提案する。
RecDCLでは、FCLの目的は、ユーザとイテムの正のペアに対する冗長なソリューションを排除することである。
BCLの目的は、表現の堅牢性を高めるために出力ベクトルにコントラスト埋め込みを生成するために利用される。
論文 参考訳(メタデータ) (2024-01-28T11:51:09Z) - Hard-Negative Sampling for Contrastive Learning: Optimal Representation Geometry and Neural- vs Dimensional-Collapse [16.42457033976047]
ニューラル・コラプス(NC)を示す表現によって、SCL(Servised Contrastive Learning)、Hard-SCL(HSCL)、Unsupervised Contrastive Learning(UCL)の損失が最小化されることを実証する。
また、任意の表現写像に対して、HSCLとHard-UCL(HUCL)の損失は対応するSCLとUCLの損失によって低く抑えられていることを証明した。
論文 参考訳(メタデータ) (2023-11-09T04:40:32Z) - Architecture Matters: Uncovering Implicit Mechanisms in Graph
Contrastive Learning [34.566003077992384]
本稿では,グラフコントラスト学習法(GCL)の体系的研究について述べる。
GNNの暗黙的帰納バイアスが対照的な学習にどのように作用するかを明らかにすることによって、理論上はGCLの興味深い性質に関する洞察を提供する。
既存のNNメソッドを直接GCLに移植するのではなく、グラフ学習のユニークなアーキテクチャにもっと注意を払うことを提唱する。
論文 参考訳(メタデータ) (2023-11-05T15:54:17Z) - Struc-Bench: Are Large Language Models Really Good at Generating Complex Structured Data? [49.688233418425995]
Struc-Benchは、大きな言語モデル(LLM)を特徴とする包括的なベンチマークである。
Pスコア(Prompting Score)とHスコア(Heuristical Score)の2つの革新的な指標を提案する。
実験の結果,LLaMA-7Bに構造認識の微調整を適用すると,性能が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2023-09-16T11:31:58Z) - HomoGCL: Rethinking Homophily in Graph Contrastive Learning [64.85392028383164]
HomoGCL はモデルに依存しないフレームワークで、近隣のノードに固有の意味を持つ正の集合を拡大する。
我々は、HomoGCLが6つの公開データセットにまたがって複数の最先端結果をもたらすことを示す。
論文 参考訳(メタデータ) (2023-06-16T04:06:52Z) - Explaining Emergent In-Context Learning as Kernel Regression [61.57151500616111]
大規模言語モデル(LLM)は、伝達学習のパラダイムシフトを開始した。
本稿では,トランスフォーマーに基づく言語モデルが事前学習後に文脈内学習を達成できる理由について検討する。
ICL中、LLMの注意と隠れた特徴は、カーネル回帰の挙動と一致していることがわかった。
論文 参考訳(メタデータ) (2023-05-22T06:45:02Z) - Classification and Feature Transformation with Fuzzy Cognitive Maps [0.3299672391663526]
Fuzzy Cognitive Maps(FCM)は、ファジィ論理と繰り返しニューラルネットワークの要素を組み合わせたソフトコンピューティング技術と考えられている。
本研究では,フルコネクテッドマップ構造を有するFCMに基づく分類器を提案する。
重みを勾配アルゴリズムで学習し,コスト関数としてloglossやcross-entropyを用いた。
論文 参考訳(メタデータ) (2021-03-08T22:26:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。