論文の概要: Causal Feature Learning for Utility-Maximizing Agents
- arxiv url: http://arxiv.org/abs/2005.08792v4
- Date: Thu, 27 Aug 2020 18:56:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 22:55:04.364491
- Title: Causal Feature Learning for Utility-Maximizing Agents
- Title(参考訳): 効用最大化剤の因果的特徴学習
- Authors: David Kinney and David Watson
- Abstract要約: そこで本研究では,従来のCFLアルゴリズムを有用かつ直感的に拡張する手法として,PCFL(Pragmatic causal Feature Learning)を提案する。
我々はPCFLが元のCFLアルゴリズムと同じ魅力的な測度理論特性を持つことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discovering high-level causal relations from low-level data is an important
and challenging problem that comes up frequently in the natural and social
sciences. In a series of papers, Chalupka et al. (2015, 2016a, 2016b, 2017)
develop a procedure for causal feature learning (CFL) in an effort to automate
this task. We argue that CFL does not recommend coarsening in cases where
pragmatic considerations rule in favor of it, and recommends coarsening in
cases where pragmatic considerations rule against it. We propose a new
technique, pragmatic causal feature learning (PCFL), which extends the original
CFL algorithm in useful and intuitive ways. We show that PCFL has the same
attractive measure-theoretic properties as the original CFL algorithm. We
compare the performance of both methods through theoretical analysis and
experiments.
- Abstract(参考訳): 低レベルのデータから高レベルの因果関係を明らかにすることは、自然科学や社会科学で頻繁に現れる重要かつ困難な問題である。
一連の論文で、Chalupka et al. (2015, 2016a, 2016b, 2017)は、このタスクを自動化するために因果的特徴学習(CFL)の手順を開発した。
CFLは、実用的考慮が優先する場合には粗大化を推奨せず、実用的考慮がそれに反対する場合には粗大化を推奨する。
そこで本研究では,従来のCFLアルゴリズムを有用かつ直感的に拡張する手法として,PCFL(Pragmatic causal Feature Learning)を提案する。
我々はPCFLが元のCFLアルゴリズムと同じ魅力的な測度理論特性を持つことを示す。
理論的解析と実験により両手法の性能を比較した。
関連論文リスト
- Accurate Forgetting for Heterogeneous Federated Continual Learning [89.08735771893608]
提案手法は,フェデレーションネットワークにおける従来の知識を選択的に活用する新しい生成再生手法である。
我々は,従来の知識の信頼性を定量化するために,正規化フローモデルに基づく確率的フレームワークを用いる。
論文 参考訳(メタデータ) (2025-02-20T02:35:17Z) - A Survey on Cluster-based Federated Learning [0.5242869847419834]
フェデレーテッド・ラーニングのクライアントのデータは非独立に分散しており、ベースラインのFLアプローチは不足しているようだ。
PFLは暗黙の単一モデル制約を緩和し、データやローカルモデルから複数の仮説を学ぶことができる。
パーソナライズされたFLアプローチの中で、クラスタベースのソリューション(CFL)は、クライアントをグループに分割できる明確なドメイン知識を通じて、特に興味深いものです。
論文 参考訳(メタデータ) (2025-01-29T09:30:21Z) - Rehearsal-Free Continual Federated Learning with Synergistic Regularization [14.258111055761479]
連続的フェデレートラーニング(Continuous Federated Learning, CFL)は、分散デバイスがトレーニングデータを継続的にシフトすることで、新しい概念を協調的に学習することを可能にする。
我々は、CFLのシナプスインテリジェンスを不均一なデータ設定で調整するFedSSIという、単純かつ効果的なCFLの正規化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-12-18T12:16:41Z) - FuseFL: One-Shot Federated Learning through the Lens of Causality with Progressive Model Fusion [48.90879664138855]
ワンショットフェデレートラーニング(OFL)は、訓練されたモデルを1回だけ集約することで、FLにおける通信コストを大幅に削減する。
しかし、高度なOFL法の性能は通常のFLよりもはるかに遅れている。
本稿では,FuseFL と呼ばれる,高い性能と低通信・ストレージコストを有する新しい学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-27T09:07:10Z) - SpaFL: Communication-Efficient Federated Learning with Sparse Models and Low computational Overhead [75.87007729801304]
SpaFL: 計算オーバーヘッドの少ないスパースモデル構造を最適化する通信効率のよいFLフレームワークを提案する。
プルーニングプロセス自体を最適化するためには、パラメータの代わりにサーバとクライアントの間でしきい値だけが通信される。
グローバルしきい値は、集約されたパラメータの重要度を抽出することで、モデルパラメータの更新に使用される。
論文 参考訳(メタデータ) (2024-06-01T13:10:35Z) - Sharp Bounds for Sequential Federated Learning on Heterogeneous Data [5.872735527071425]
学習にはパラレルFL(PFL)とシーケンシャルFL(SFL)の2つのパラダイムがある。
PFLとは対照的に、収束理論 SFL のデータはまだ不足している。
強凸, 一般凸, 逐次非直観的目的関数の上限を導出する。
上界SFLと不均一PFLデータとの比較を行った。
論文 参考訳(メタデータ) (2024-05-02T09:58:49Z) - ISFL: Federated Learning for Non-i.i.d. Data with Local Importance Sampling [17.29669920752378]
理論的保証のある明示的な枠組みであるISFLを提案する。
我々はISFLの収束定理を導出し、局所的な重要度サンプリングの効果を含む。
我々は、IS重みを計算し、ISFLアルゴリズムを開発するために、水充填法を用いる。
論文 参考訳(メタデータ) (2022-10-05T09:43:58Z) - Learning (Local) Surrogate Loss Functions for Predict-Then-Optimize
Problems [58.954414264760956]
決定焦点学習(Decision-Focused Learning, DFL)は、予測モデルを下流の最適化タスクに調整するためのパラダイムである。
本稿では,(a)最適化問題を解き,一般化可能なブラックボックスオラクルへのアクセスのみを必要とする忠実なタスク固有サロゲートを学習し,(b)勾配で凸し,容易に最適化できる手法を提案する。
論文 参考訳(メタデータ) (2022-03-30T05:46:54Z) - Desirable Companion for Vertical Federated Learning: New Zeroth-Order
Gradient Based Algorithm [140.25480610981504]
VFLアルゴリズムを評価するための指標の完全なリストには、モデル適用性、プライバシ、通信、計算効率が含まれるべきである。
ブラックボックスのスケーラビリティを備えた新しいVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-19T13:55:47Z) - AsySQN: Faster Vertical Federated Learning Algorithms with Better
Computation Resource Utilization [159.75564904944707]
垂直連合学習(VFL)のための非同期準ニュートン(AsySQN)フレームワークを提案する。
提案アルゴリズムは、逆ヘッセン行列を明示的に計算することなく、近似して降下ステップをスケールする。
本稿では,非同期計算を採用することにより,計算資源の有効利用が期待できることを示す。
論文 参考訳(メタデータ) (2021-09-26T07:56:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。