論文の概要: Causal Feature Learning for Utility-Maximizing Agents
- arxiv url: http://arxiv.org/abs/2005.08792v4
- Date: Thu, 27 Aug 2020 18:56:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 22:55:04.364491
- Title: Causal Feature Learning for Utility-Maximizing Agents
- Title(参考訳): 効用最大化剤の因果的特徴学習
- Authors: David Kinney and David Watson
- Abstract要約: そこで本研究では,従来のCFLアルゴリズムを有用かつ直感的に拡張する手法として,PCFL(Pragmatic causal Feature Learning)を提案する。
我々はPCFLが元のCFLアルゴリズムと同じ魅力的な測度理論特性を持つことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discovering high-level causal relations from low-level data is an important
and challenging problem that comes up frequently in the natural and social
sciences. In a series of papers, Chalupka et al. (2015, 2016a, 2016b, 2017)
develop a procedure for causal feature learning (CFL) in an effort to automate
this task. We argue that CFL does not recommend coarsening in cases where
pragmatic considerations rule in favor of it, and recommends coarsening in
cases where pragmatic considerations rule against it. We propose a new
technique, pragmatic causal feature learning (PCFL), which extends the original
CFL algorithm in useful and intuitive ways. We show that PCFL has the same
attractive measure-theoretic properties as the original CFL algorithm. We
compare the performance of both methods through theoretical analysis and
experiments.
- Abstract(参考訳): 低レベルのデータから高レベルの因果関係を明らかにすることは、自然科学や社会科学で頻繁に現れる重要かつ困難な問題である。
一連の論文で、Chalupka et al. (2015, 2016a, 2016b, 2017)は、このタスクを自動化するために因果的特徴学習(CFL)の手順を開発した。
CFLは、実用的考慮が優先する場合には粗大化を推奨せず、実用的考慮がそれに反対する場合には粗大化を推奨する。
そこで本研究では,従来のCFLアルゴリズムを有用かつ直感的に拡張する手法として,PCFL(Pragmatic causal Feature Learning)を提案する。
我々はPCFLが元のCFLアルゴリズムと同じ魅力的な測度理論特性を持つことを示す。
理論的解析と実験により両手法の性能を比較した。
関連論文リスト
- FuseFL: One-Shot Federated Learning through the Lens of Causality with Progressive Model Fusion [48.90879664138855]
ワンショットフェデレートラーニング(OFL)は、訓練されたモデルを1回だけ集約することで、FLにおける通信コストを大幅に削減する。
しかし、高度なOFL法の性能は通常のFLよりもはるかに遅れている。
本稿では,FuseFL と呼ばれる,高い性能と低通信・ストレージコストを有する新しい学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-27T09:07:10Z) - Re-Evaluating Privacy in Centralized and Decentralized Learning: An Information-Theoretical and Empirical Study [4.7773230870500605]
Decentralized Federated Learning (DFL)は、その堅牢性とスケーラビリティに注目を集めている。
Pasquiniらによる最近の研究はこの見解に異議を唱え、DFLは経験的攻撃に対するプライバシーを本質的に改善していないことを実証している。
論文 参考訳(メタデータ) (2024-09-21T23:05:50Z) - SpaFL: Communication-Efficient Federated Learning with Sparse Models and Low computational Overhead [75.87007729801304]
SpaFL: 計算オーバーヘッドの少ないスパースモデル構造を最適化する通信効率のよいFLフレームワークを提案する。
実験により、スパースベースラインに比べて通信やコンピューティングリソースをはるかに少なくし、精度を向上することが示された。
論文 参考訳(メタデータ) (2024-06-01T13:10:35Z) - Sharp Bounds for Sequential Federated Learning on Heterogeneous Data [5.872735527071425]
学習にはパラレルFL(PFL)とシーケンシャルFL(SFL)の2つのパラダイムがある。
PFLとは対照的に、収束理論 SFL のデータはまだ不足している。
強凸, 一般凸, 逐次非直観的目的関数の上限を導出する。
上界SFLと不均一PFLデータとの比較を行った。
論文 参考訳(メタデータ) (2024-05-02T09:58:49Z) - Towards Understanding Generalization and Stability Gaps between Centralized and Decentralized Federated Learning [57.35402286842029]
集中学習は常に分散学習(DFL)よりも一般化されていることを示す。
また、FLにおけるいくつかの一般的な設定について実験を行い、我々の理論解析が実験的な現象と一致し、いくつかの一般的なシナリオおよび実践シナリオにおいて文脈的に有効であることを示す。
論文 参考訳(メタデータ) (2023-10-05T11:09:42Z) - ISFL: Federated Learning for Non-i.i.d. Data with Local Importance Sampling [17.29669920752378]
理論的保証のある明示的な枠組みであるISFLを提案する。
我々はISFLの収束定理を導出し、局所的な重要度サンプリングの効果を含む。
我々は、IS重みを計算し、ISFLアルゴリズムを開発するために、水充填法を用いる。
論文 参考訳(メタデータ) (2022-10-05T09:43:58Z) - Learning (Local) Surrogate Loss Functions for Predict-Then-Optimize
Problems [58.954414264760956]
決定焦点学習(Decision-Focused Learning, DFL)は、予測モデルを下流の最適化タスクに調整するためのパラダイムである。
本稿では,(a)最適化問題を解き,一般化可能なブラックボックスオラクルへのアクセスのみを必要とする忠実なタスク固有サロゲートを学習し,(b)勾配で凸し,容易に最適化できる手法を提案する。
論文 参考訳(メタデータ) (2022-03-30T05:46:54Z) - Desirable Companion for Vertical Federated Learning: New Zeroth-Order
Gradient Based Algorithm [140.25480610981504]
VFLアルゴリズムを評価するための指標の完全なリストには、モデル適用性、プライバシ、通信、計算効率が含まれるべきである。
ブラックボックスのスケーラビリティを備えた新しいVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-19T13:55:47Z) - AsySQN: Faster Vertical Federated Learning Algorithms with Better
Computation Resource Utilization [159.75564904944707]
垂直連合学習(VFL)のための非同期準ニュートン(AsySQN)フレームワークを提案する。
提案アルゴリズムは、逆ヘッセン行列を明示的に計算することなく、近似して降下ステップをスケールする。
本稿では,非同期計算を採用することにより,計算資源の有効利用が期待できることを示す。
論文 参考訳(メタデータ) (2021-09-26T07:56:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。