論文の概要: A Loss-Function for Causal Machine-Learning
- arxiv url: http://arxiv.org/abs/2001.00629v1
- Date: Thu, 2 Jan 2020 21:22:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 03:54:26.622181
- Title: A Loss-Function for Causal Machine-Learning
- Title(参考訳): 因果機械学習における損失関数
- Authors: I-Sheng Yang
- Abstract要約: 因果機械学習は、治療のネットエフェクト(真のリフト)を予測することである。
データにポイントワイド真の値がないため、同様のよく定義された損失関数は存在しない。
この文脈で損失関数を定義する新しい手法を提案し、これは標準回帰問題における平均二乗誤差(MSE)と等しい。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Causal machine-learning is about predicting the net-effect (true-lift) of
treatments. Given the data of a treatment group and a control group, it is
similar to a standard supervised-learning problem. Unfortunately, there is no
similarly well-defined loss function due to the lack of point-wise true values
in the data. Many advances in modern machine-learning are not directly
applicable due to the absence of such loss function.
We propose a novel method to define a loss function in this context, which is
equal to mean-square-error (MSE) in a standard regression problem. Our loss
function is universally applicable, thus providing a general standard to
evaluate the quality of any model/strategy that predicts the true-lift. We
demonstrate that despite its novel definition, one can still perform gradient
descent directly on this loss function to find the best fit. This leads to a
new way to train any parameter-based model, such as deep neural networks, to
solve causal machine-learning problems without going through the meta-learner
strategy.
- Abstract(参考訳): 因果機械学習は、治療のネット効果(真のリフト)を予測することである。
治療群と対照群のデータを考慮すれば、標準的な教師付き学習問題に似ている。
残念ながら、データにポイントワイド真の値がないため、同様のよく定義された損失関数は存在しない。
現代の機械学習における多くの進歩は、そのような損失関数がないため直接適用できない。
この文脈で損失関数を定義する新しい手法を提案し、これは標準回帰問題における平均二乗誤差(MSE)と等しい。
損失関数は普遍的に適用可能であり、真のリフトを予測する任意のモデル/戦略の品質を評価する一般的な標準を提供する。
我々は、その新しい定義にもかかわらず、この損失関数に直接勾配降下を行い、最適に適合することを示す。
これにより、ディープニューラルネットワークなどのパラメータベースのモデルをトレーニングして、メタリーナー戦略を踏まずに因果的機械学習問題を解決する新しい方法が生まれます。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Just How Flexible are Neural Networks in Practice? [89.80474583606242]
ニューラルネットワークは、パラメータを持つ少なくとも多くのサンプルを含むトレーニングセットに適合できると広く信じられている。
しかし実際には、勾配や正規化子など、柔軟性を制限したトレーニング手順によるソリューションしか見つからない。
論文 参考訳(メタデータ) (2024-06-17T12:24:45Z) - Loss-Free Machine Unlearning [51.34904967046097]
我々は、再学習とラベルなしの両方の機械学習アプローチを提案する。
Retraining-freeアプローチは、損失から派生したFisher情報を利用することが多く、利用できないラベル付きデータを必要とする。
本稿では,モデル出力のl2ノルムの勾配に対して,フィッシャー情報行列の対角線を近似感度に置き換えるSelective Synaptic Dampeningアルゴリズムの拡張を提案する。
論文 参考訳(メタデータ) (2024-02-29T16:15:34Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Theoretical Characterization of the Generalization Performance of
Overfitted Meta-Learning [70.52689048213398]
本稿では,ガウス的特徴を持つ線形回帰モデルの下で,過剰適合型メタラーニングの性能について検討する。
シングルタスク線形回帰には存在しない新しい興味深い性質が見つかる。
本分析は,各訓練課題における基礎的真理のノイズや多様性・変動が大きい場合には,良心過剰がより重要かつ容易に観察できることを示唆する。
論文 参考訳(メタデータ) (2023-04-09T20:36:13Z) - Alternate Loss Functions for Classification and Robust Regression Can Improve the Accuracy of Artificial Neural Networks [6.452225158891343]
本稿では,ニューラルネットワークのトレーニング速度と最終的な精度が,ニューラルネットワークのトレーニングに使用する損失関数に大きく依存することを示す。
様々なベンチマークタスクの性能を著しく向上させる2つの新しい分類損失関数を提案する。
論文 参考訳(メタデータ) (2023-03-17T12:52:06Z) - Online Loss Function Learning [13.744076477599707]
ロス関数学習は、機械学習モデルの損失関数を設計するタスクを自動化することを目的としている。
基本モデルパラメータへの更新毎に,損失関数をオンラインに適応的に更新する新しい損失関数学習手法を提案する。
論文 参考訳(メタデータ) (2023-01-30T19:22:46Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Nonlinear Monte Carlo Method for Imbalanced Data Learning [43.17123077368725]
機械学習問題では、予測誤差を用いてモデル性能を評価する。
非線形期待理論の枠組みに着想を得て、損失関数の平均値を部分群平均損失の最大値に置き換える。
トレーニングステップの少ないSOTAバックボーンモデルよりも優れたパフォーマンスを実現し、基本的な回帰と不均衡な分類タスクに対する堅牢性を向上する。
論文 参考訳(メタデータ) (2020-10-27T05:25:09Z) - Online non-convex optimization with imperfect feedback [33.80530308979131]
非損失を伴うオンライン学習の問題を考える。
フィードバックの観点からは、学習者が各段階における損失関数の不正確なモデル(または構成)を観測すると仮定する。
本稿では,二元平均化に基づく混合戦略学習政策を提案する。
論文 参考訳(メタデータ) (2020-10-16T16:53:13Z) - Classification vs regression in overparameterized regimes: Does the loss
function matter? [21.75115239010008]
最小二乗最小ノルムで得られる解は、通常回帰に使用されるもので、ハードマージン支援ベクトルマシン(SVM)が生成したものと同一であることを示す。
本研究は, トレーニングフェーズ(最適化)とテストフェーズ(一般化)において, 損失関数の役割と特性が全く異なることを示すものである。
論文 参考訳(メタデータ) (2020-05-16T17:58:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。