論文の概要: LeanML: A Design Pattern To Slash Avoidable Wastes in Machine Learning
Projects
- arxiv url: http://arxiv.org/abs/2107.08066v1
- Date: Fri, 16 Jul 2021 18:16:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-21 13:57:08.438146
- Title: LeanML: A Design Pattern To Slash Avoidable Wastes in Machine Learning
Projects
- Title(参考訳): LeanML: 機械学習プロジェクトでの無駄を避けるデザインパターン
- Authors: Yves-Laurent Kom Samo
- Abstract要約: 機械学習プロジェクトへのリーン方法論の最初の応用を紹介します。
我々は、リーン機械学習(LeanML)が、商用機械学習プロジェクトで回避可能な無駄を大幅に削減できると主張している。
- 参考スコア(独自算出の注目度): 0.5330240017302619
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We introduce the first application of the lean methodology to machine
learning projects. Similar to lean startups and lean manufacturing, we argue
that lean machine learning (LeanML) can drastically slash avoidable wastes in
commercial machine learning projects, reduce the business risk in investing in
machine learning capabilities and, in so doing, further democratize access to
machine learning. The lean design pattern we propose in this paper is based on
two realizations. First, it is possible to estimate the best performance one
may achieve when predicting an outcome $y \in \mathcal{Y}$ using a given set of
explanatory variables $x \in \mathcal{X}$, for a wide range of performance
metrics, and without training any predictive model. Second, doing so is
considerably easier, faster, and cheaper than learning the best predictive
model. We derive formulae expressing the best $R^2$, MSE, classification
accuracy, and log-likelihood per observation achievable when using $x$ to
predict $y$ as a function of the mutual information $I\left(y; x\right)$, and
possibly a measure of the variability of $y$ (e.g. its Shannon entropy in the
case of classification accuracy, and its variance in the case regression MSE).
We illustrate the efficacy of the LeanML design pattern on a wide range of
regression and classification problems, synthetic and real-life.
- Abstract(参考訳): 機械学習プロジェクトへのリーン方法論の最初の応用を紹介します。
リーンスタートアップやリーン製造業と同様に、リーン機械学習(LeanML)は、商用機械学習プロジェクトにおける回避可能な無駄を大幅に削減し、機械学習能力への投資におけるビジネスリスクを低減し、さらに機械学習へのアクセスを民主化することができる、と私たちは主張する。
本論文で提案するリーンデザインパターンは2つの実現に基づいている。
まず、様々なパフォーマンス指標に対して与えられた説明変数のセットを$x \in \mathcal{X}$で予測し、予測モデルを訓練することなく、結果を予測する際に得られる最高のパフォーマンスを推定することができる。
第二に、最良の予測モデルを学ぶよりもずっと簡単で、速く、そして安価です。
相互情報 $i\left(y; x\right)$ の関数として$y$ を予測するために$x$ を使用する場合の観測量当たりの最高の$r^2$,mse,分類精度,log-likelihood を表す式を導出し、おそらく $y$ の変動係数(例えば、y$ )の尺度を導出する。
分類精度の場合にはシャノンエントロピー、回帰MSEの場合はばらつき)。
本稿では,LeanML設計パターンが多種多様な回帰・分類問題,合成・実生活に与える影響について述べる。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Breaking the Sample Complexity Barrier to Regret-Optimal Model-Free
Reinforcement Learning [52.76230802067506]
漸進的強化学習における後悔を最小限に抑えるために,新しいモデルフリーアルゴリズムを提案する。
提案アルゴリズムは、2つのQ-ラーニングシーケンスの助けを借りて、初期設定された参照更新ルールを用いる。
初期の分散還元法の設計原理は、他のRL設定とは独立した関心を持つかもしれない。
論文 参考訳(メタデータ) (2021-10-09T21:13:48Z) - Unrolling SGD: Understanding Factors Influencing Machine Unlearning [17.6607904333012]
機械学習は、デプロイされた機械学習モデルがトレーニングデータポイントの1つを忘れるプロセスである。
まず、近似アンラーニングのアプローチとメトリクスを分類する。
検証誤差(L2差)、すなわち、ほとんど学習されていないモデルの重みと鼻再訓練されたモデルのL2差を同定する。
論文 参考訳(メタデータ) (2021-09-27T23:46:59Z) - The Sharpe predictor for fairness in machine learning [0.0]
機械学習の応用においては、不公平な予測が少数派に対して差別されることがある。
フェア機械学習(FML)の既存のアプローチは、MLモデルの最適化において、フェアネスを制約またはペナル化用語として扱う。
本稿では,Multi-Objective Optimization(SMOO)に基づくFMLの新しいパラダイムを提案する。
FMLのシャープ予測器は、予測リスク(不公平)の単位当たりの最も高い予測リターン(精度)を提供する。
論文 参考訳(メタデータ) (2021-08-13T22:22:34Z) - Supervised Machine Learning with Plausible Deniability [1.685485565763117]
機械学習(ML)モデルが、特定のデータセットでトレーニングされたモデルが、トレーニングデータに対してどの程度のプライバシを提供するか、という問題について検討する。
我々は、純粋にランダムなトレーニングデータの集合を取ることができ、そこから、ちょうど$f$のMLモデルを生成する'適切な学習ルール'を定義することができることを示す。
論文 参考訳(メタデータ) (2021-06-08T11:54:51Z) - Learning to extrapolate using continued fractions: Predicting the
critical temperature of superconductor materials [5.905364646955811]
人工知能(AI)と機械学習(ML)の分野では、未知のターゲット関数 $y=f(mathbfx)$ の近似が共通の目的である。
トレーニングセットとして$S$を参照し、新しいインスタンス$mathbfx$に対して、このターゲット関数を効果的に近似できる低複雑さの数学的モデルを特定することを目的としている。
論文 参考訳(メタデータ) (2020-11-27T04:57:40Z) - A Survey on Large-scale Machine Learning [67.6997613600942]
機械学習はデータに対する深い洞察を与え、マシンが高品質な予測を行うことを可能にする。
ほとんどの高度な機械学習アプローチは、大規模なデータを扱う場合の膨大な時間コストに悩まされる。
大規模機械学習は、ビッグデータからパターンを、同等のパフォーマンスで効率的に学習することを目的としている。
論文 参考訳(メタデータ) (2020-08-10T06:07:52Z) - Differential Machine Learning [0.0]
自動随伴微分(AAD)と現代の機械学習(ML)を組み合わせた微分機械学習
高速で正確な価格設定とリスク近似をオンライン,リアルタイムに,コンバージェンス保証付きでトレーニングするための新しいアルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-05-05T17:32:37Z) - The Information Bottleneck Problem and Its Applications in Machine
Learning [53.57797720793437]
近年,機械学習システムの推論能力が急上昇し,社会の様々な側面において重要な役割を担っている。
情報ボトルネック(IB)理論は、ディープラーニング(DL)システムを分析するための大胆な情報理論パラダイムとして登場した。
本チュートリアルでは,この抽象原理の情報理論的起源と最近のDLへの影響について考察する。
論文 参考訳(メタデータ) (2020-04-30T16:48:51Z) - ELECTRA: Pre-training Text Encoders as Discriminators Rather Than
Generators [108.3381301768299]
Masked Language Modeling (MLM) は、BERT のような事前学習手法で、いくつかのトークンを [MASK] に置き換えて、元のトークンを再構築するためにモデルをトレーニングすることで入力を破損させた。
代用トークン検出という,より効率的な事前学習タスクを提案する。
論文 参考訳(メタデータ) (2020-03-23T21:17:42Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。