論文の概要: Federated Causal Discovery
- arxiv url: http://arxiv.org/abs/2112.03555v1
- Date: Tue, 7 Dec 2021 08:04:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 13:51:11.984540
- Title: Federated Causal Discovery
- Title(参考訳): フェデレート因果発見
- Authors: Erdun Gao and Junjia Chen and Li Shen and Tongliang Liu and Mingming
Gong and Howard Bondell
- Abstract要約: 本稿では,DAG-Shared Federated Causal Discovery (DS-FCD) という勾配学習フレームワークを開発する。
ローカルデータに直接触れることなく因果グラフを学習し、データの不均一性を自然に扱うことができる。
合成および実世界の両方のデータセットに対する大規模な実験により,提案手法の有効性が検証された。
- 参考スコア(独自算出の注目度): 74.37739054932733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Causal discovery aims to learn a causal graph from observational data. To
date, most causal discovery methods require data to be stored in a central
server. However, data owners gradually refuse to share their personalized data
to avoid privacy leakage, making this task more troublesome by cutting off the
first step. A puzzle arises: $\textit{how do we infer causal relations from
decentralized data?}$ In this paper, with the additive noise model assumption
of data, we take the first step in developing a gradient-based learning
framework named DAG-Shared Federated Causal Discovery (DS-FCD), which can learn
the causal graph without directly touching local data and naturally handle the
data heterogeneity. DS-FCD benefits from a two-level structure of each local
model. The first level learns the causal graph and communicates with the server
to get model information from other clients, while the second level
approximates causal mechanisms and personally updates from its own data to
accommodate the data heterogeneity. Moreover, DS-FCD formulates the overall
learning task as a continuous optimization problem by taking advantage of an
equality acyclicity constraint, which can be naturally solved by gradient
descent methods. Extensive experiments on both synthetic and real-world
datasets verify the efficacy of the proposed method.
- Abstract(参考訳): 因果発見は観測データから因果グラフを学ぶことを目的としている。
今日まで、ほとんどの因果発見方法は中央サーバに格納するデータを必要とする。
しかしデータ所有者は、プライバシーの漏洩を避けるためにパーソナライズされたデータの共有を徐々に拒否する。
$\textit{どのように分散データから因果関係を推測するか?
そこで本研究では,DAG-Shared Federated Causal Discovery (DS-FCD) と呼ばれる勾配に基づく学習フレームワークの開発において,局所データに直接触れることなく因果グラフを学習し,データ不均一性を自然に処理できる第一歩を踏み出した。
DS-FCDは各局所モデルの2レベル構造から恩恵を受ける。
第1のレベルは因果グラフを学習し、他のクライアントからモデル情報を取得するためにサーバと通信する。
さらにDS-FCDは、勾配勾配勾配法により自然に解ける等性非巡回性制約を利用して、全体的な学習タスクを連続最適化問題として定式化する。
合成データと実世界のデータセットの両方に関する広範な実験により,提案手法の有効性が検証された。
関連論文リスト
- TCGU: Data-centric Graph Unlearning based on Transferable Condensation [36.670771080732486]
Transferable Condensation Graph Unlearning (TCGU)は、ゼロガンスグラフアンラーニングのためのデータ中心のソリューションである。
我々は,TGUが既存のGU手法よりもモデルユーティリティ,未学習効率,未学習効率において優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2024-10-09T02:14:40Z) - Federated Causal Discovery from Heterogeneous Data [70.31070224690399]
任意の因果モデルと異種データに対応する新しいFCD法を提案する。
これらのアプローチには、データのプライバシを保護するために、生データのプロキシとして要約統計を構築することが含まれる。
提案手法の有効性を示すために, 合成および実データを用いた広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-02-20T18:53:53Z) - Fake It Till Make It: Federated Learning with Consensus-Oriented
Generation [52.82176415223988]
コンセンサス指向生成による連合学習(FedCOG)を提案する。
FedCOGは、補完的なデータ生成と知識蒸留に基づくモデルトレーニングという、クライアント側の2つの重要なコンポーネントで構成されています。
古典的および実世界のFLデータセットの実験は、FedCOGが一貫して最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2023-12-10T18:49:59Z) - Federated Causality Learning with Explainable Adaptive Optimization [25.910766140488395]
我々は、分散化された異種データから統一されたグローバル因果グラフを学習するための連合因果発見戦略(FedCausal)を提案する。
我々はFedCausalが非独立かつ同一に分散された(非ID)データを効果的に扱うことができることを示す。
論文 参考訳(メタデータ) (2023-12-09T11:18:20Z) - Towards Practical Federated Causal Structure Learning [9.74796970978203]
FedC2SLは、条件付き独立性テストを用いて因果グラフを学習する制約に基づく因果構造学習スキームである。
この研究は、既存のソリューションに対する合成データセットと実世界のデータの両方を用いてFedC2SLを評価する。
論文 参考訳(メタデータ) (2023-06-15T18:23:58Z) - Discovering Dynamic Causal Space for DAG Structure Learning [64.763763417533]
本稿では,DAG構造学習のための動的因果空間であるCASPERを提案する。
グラフ構造をスコア関数に統合し、因果空間における新しい尺度として、推定真理DAGと基底真理DAGの因果距離を忠実に反映する。
論文 参考訳(メタデータ) (2023-06-05T12:20:40Z) - Towards Understanding and Mitigating Dimensional Collapse in Heterogeneous Federated Learning [112.69497636932955]
フェデレートラーニングは、プライバシを考慮したデータ共有を必要とせずに、さまざまなクライアントでモデルをトレーニングすることを目的としている。
本研究では,データの不均一性がグローバル集約モデルの表現に与える影響について検討する。
フェデレーション学習における次元的崩壊を効果的に緩和する新しい手法である sc FedDecorr を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:04:17Z) - Rethinking Data Heterogeneity in Federated Learning: Introducing a New
Notion and Standard Benchmarks [65.34113135080105]
我々は、現在のセットアップにおけるデータ不均一性の問題が必ずしも問題であるだけでなく、FL参加者にとって有益であることを示す。
私たちの観察は直感的である。
私たちのコードはhttps://github.com/MMorafah/FL-SC-NIIDで利用可能です。
論文 参考訳(メタデータ) (2022-09-30T17:15:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。