論文の概要: Causal Feature Learning for Utility-Maximizing Agents
- arxiv url: http://arxiv.org/abs/2005.08792v4
- Date: Thu, 27 Aug 2020 18:56:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 22:55:04.364491
- Title: Causal Feature Learning for Utility-Maximizing Agents
- Title(参考訳): 効用最大化剤の因果的特徴学習
- Authors: David Kinney and David Watson
- Abstract要約: そこで本研究では,従来のCFLアルゴリズムを有用かつ直感的に拡張する手法として,PCFL(Pragmatic causal Feature Learning)を提案する。
我々はPCFLが元のCFLアルゴリズムと同じ魅力的な測度理論特性を持つことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discovering high-level causal relations from low-level data is an important
and challenging problem that comes up frequently in the natural and social
sciences. In a series of papers, Chalupka et al. (2015, 2016a, 2016b, 2017)
develop a procedure for causal feature learning (CFL) in an effort to automate
this task. We argue that CFL does not recommend coarsening in cases where
pragmatic considerations rule in favor of it, and recommends coarsening in
cases where pragmatic considerations rule against it. We propose a new
technique, pragmatic causal feature learning (PCFL), which extends the original
CFL algorithm in useful and intuitive ways. We show that PCFL has the same
attractive measure-theoretic properties as the original CFL algorithm. We
compare the performance of both methods through theoretical analysis and
experiments.
- Abstract(参考訳): 低レベルのデータから高レベルの因果関係を明らかにすることは、自然科学や社会科学で頻繁に現れる重要かつ困難な問題である。
一連の論文で、Chalupka et al. (2015, 2016a, 2016b, 2017)は、このタスクを自動化するために因果的特徴学習(CFL)の手順を開発した。
CFLは、実用的考慮が優先する場合には粗大化を推奨せず、実用的考慮がそれに反対する場合には粗大化を推奨する。
そこで本研究では,従来のCFLアルゴリズムを有用かつ直感的に拡張する手法として,PCFL(Pragmatic causal Feature Learning)を提案する。
我々はPCFLが元のCFLアルゴリズムと同じ魅力的な測度理論特性を持つことを示す。
理論的解析と実験により両手法の性能を比較した。
関連論文リスト
- Which mode is better for federated learning? Centralized or
Decentralized [64.46017397813549]
集中型と分散型の両方のアプローチは、フェデレートラーニング(FL)における優れたパフォーマンスと優れた応用価値を示している。
しかし、現在の研究では、どちらが優れているかを示す証拠は示されていない。
論文 参考訳(メタデータ) (2023-10-05T11:09:42Z) - SHOT: Suppressing the Hessian along the Optimization Trajectory for
Gradient-Based Meta-Learning [28.26143547479141]
SHOT(Suppressing the Hessian along the Optimization Trajectory)と呼ばれるアルゴリズムを導入する。
SHOTはベースラインモデルの計算複雑性をあまり増やさない。
本仮説を実証的に検証し,SHOTが対応するベースラインより優れていることを示す。
論文 参考訳(メタデータ) (2023-10-04T11:43:08Z) - ISFL: Trustworthy Federated Learning for Non-i.i.d. Data with Local
Importance Sampling [11.806062800053699]
本稿では,特にニューラルネットワーク(NN)モデルと互換性のある重要サンプリングフェデレーション学習(ISFL)を提案する。
我々の知る限りでは、ISFLは、理論的なNN互換を示す局所的なサンプリングの側面から、最初の非i.d.FLソリューションである。
論文 参考訳(メタデータ) (2022-10-05T09:43:58Z) - Low-Latency Cooperative Spectrum Sensing via Truncated Vertical
Federated Learning [51.51440623636274]
データプライバシを損なうことなく、複数のセカンダリユーザ(SU)にまたがる分散機能を活用できる垂直連合学習(VFL)フレームワークを提案する。
学習プロセスの高速化を目的として,T-VFL(Truncated vertical Federated Learning)アルゴリズムを提案する。
T-VFLの収束性能は、数学的解析によって提供され、シミュレーション結果によって正当化される。
論文 参考訳(メタデータ) (2022-08-07T10:39:27Z) - Learning (Local) Surrogate Loss Functions for Predict-Then-Optimize
Problems [58.954414264760956]
決定焦点学習(Decision-Focused Learning, DFL)は、予測モデルを下流の最適化タスクに調整するためのパラダイムである。
本稿では,(a)最適化問題を解き,一般化可能なブラックボックスオラクルへのアクセスのみを必要とする忠実なタスク固有サロゲートを学習し,(b)勾配で凸し,容易に最適化できる手法を提案する。
論文 参考訳(メタデータ) (2022-03-30T05:46:54Z) - Desirable Companion for Vertical Federated Learning: New Zeroth-Order
Gradient Based Algorithm [140.25480610981504]
VFLアルゴリズムを評価するための指標の完全なリストには、モデル適用性、プライバシ、通信、計算効率が含まれるべきである。
ブラックボックスのスケーラビリティを備えた新しいVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-19T13:55:47Z) - AsySQN: Faster Vertical Federated Learning Algorithms with Better
Computation Resource Utilization [159.75564904944707]
垂直連合学習(VFL)のための非同期準ニュートン(AsySQN)フレームワークを提案する。
提案アルゴリズムは、逆ヘッセン行列を明示的に計算することなく、近似して降下ステップをスケールする。
本稿では,非同期計算を採用することにより,計算資源の有効利用が期待できることを示す。
論文 参考訳(メタデータ) (2021-09-26T07:56:10Z) - Discovering Reinforcement Learning Algorithms [53.72358280495428]
強化学習アルゴリズムは、いくつかのルールの1つに従ってエージェントのパラメータを更新する。
本稿では,更新ルール全体を検出するメタラーニング手法を提案する。
これには、一連の環境と対話することで、"何を予測するか"(例えば、値関数)と"どのように学習するか"の両方が含まれている。
論文 参考訳(メタデータ) (2020-07-17T07:38:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。