論文の概要: How to avoid machine learning pitfalls: a guide for academic researchers
- arxiv url: http://arxiv.org/abs/2108.02497v1
- Date: Thu, 5 Aug 2021 10:15:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-06 14:36:22.745366
- Title: How to avoid machine learning pitfalls: a guide for academic researchers
- Title(参考訳): 機械学習の落とし穴を避ける方法: 研究者のためのガイド
- Authors: Michael A. Lones
- Abstract要約: 主に研究学生のためのガイドとして意図され、学術研究において特に関心のある問題に焦点を当てている。
モデル構築前に何をすべきか、モデルを確実に構築する方法、モデルを堅牢に評価する方法、モデルを公平に比較する方法、結果を報告する方法である。
- 参考スコア(独自算出の注目度): 0.45687771576879593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This document gives a concise outline of some of the common mistakes that
occur when using machine learning techniques, and what can be done to avoid
them. It is intended primarily as a guide for research students, and focuses on
issues that are of particular concern within academic research, such as the
need to do rigorous comparisons and reach valid conclusions. It covers five
stages of the machine learning process: what to do before model building, how
to reliably build models, how to robustly evaluate models, how to compare
models fairly, and how to report results.
- Abstract(参考訳): この文書は、機械学習技術を使用する際の一般的な誤りのいくつかと、それを避けるためにできることを簡潔に概説する。
主に研究学生のためのガイドとして意図され、厳密な比較や有効な結論に達する必要性など、学術研究の中で特に懸念される問題に焦点を当てている。
モデル構築前に何をすべきか、モデルを確実に構築する方法、モデルを堅牢に評価する方法、モデルを公平に比較する方法、結果を報告する方法である。
関連論文リスト
- RESTOR: Knowledge Recovery through Machine Unlearning [71.75834077528305]
Webスケールコーパスでトレーニングされた大規模な言語モデルは、望ましくないデータポイントを記憶することができる。
訓練されたモデルからこれらのデータポイントを「消去」することを目的とした、多くの機械学習手法が提案されている。
以下に示す次元に基づいて,機械学習のためのRESTORフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T20:54:35Z) - How to unlearn a learned Machine Learning model ? [0.0]
機械学習モデルを学習し、その能力を視覚化するためのエレガントなアルゴリズムを提示します。
基礎となる数学的理論を解明し、所望のデータに対する未学習モデルの性能と望ましくないデータに対する無知の両方を評価するための具体的な指標を確立する。
論文 参考訳(メタデータ) (2024-10-13T17:38:09Z) - Matched Machine Learning: A Generalized Framework for Treatment Effect
Inference With Learned Metrics [87.05961347040237]
我々は、機械学習ブラックボックスの柔軟性とマッチングの解釈可能性を組み合わせたフレームワークであるMatched Machine Learningを紹介する。
我々のフレームワークは機械学習を用いて、一致した単位を学習し、結果を推定する最適な指標を学習する。
一致機械学習のインスタンスはブラックボックスの機械学習手法と同等に動作し、類似した問題に対する既存のマッチング手法よりも優れていることを実証的に示す。
論文 参考訳(メタデータ) (2023-04-03T19:32:30Z) - Learnware: Small Models Do Big [69.88234743773113]
自然言語処理やコンピュータビジョンの応用で目覚ましい成果を上げてきた、一般的なビッグモデルパラダイムは、これらの問題にまだ対応していないが、炭素排出量の深刻な源となっている。
この記事では、マシンラーニングモデルをスクラッチから構築する必要がないようにするための学習ソフトウェアパラダイムの概要を紹介します。
論文 参考訳(メタデータ) (2022-10-07T15:55:52Z) - Learning to Scaffold: Optimizing Model Explanations for Teaching [74.25464914078826]
我々は3つの自然言語処理とコンピュータビジョンタスクのモデルを訓練する。
筆者らは,本フレームワークで抽出した説明文を学習した学生が,従来の手法よりもはるかに効果的に教師をシミュレートできることを発見した。
論文 参考訳(メタデータ) (2022-04-22T16:43:39Z) - A Machine Learning Tutorial for Operational Meteorology, Part I:
Traditional Machine Learning [0.0]
近年,気象学における機械学習の利用は著しく増加している。
形式的教育の欠如は、機械学習手法が「ブラックボックス」であるという認識に寄与している。
本稿では,最も一般的な機械学習手法について調査する。
論文 参考訳(メタデータ) (2022-04-15T14:48:04Z) - Applying Machine Learning to Study Fluid Mechanics [0.696194614504832]
本稿では,機械学習を用いて流体力学でデータ駆動モデルを構築する方法について概説する。
それぞれの段階において、流体力学の分野からの具体例を用いて、これまでの物理知識がどのようにプロセスに埋め込まれているかについて議論する。
論文 参考訳(メタデータ) (2021-10-05T14:30:24Z) - Machine Learning with a Reject Option: A survey [18.43771007525432]
この調査は、拒絶を伴う機械学習の概要を提供することを目的としている。
本稿では,2種類の拒絶,曖昧さ,新規性拒絶につながる条件を紹介する。
我々は,モデルの予測的,拒絶的品質を評価するための戦略をレビューし,分類する。
論文 参考訳(メタデータ) (2021-07-23T14:43:56Z) - Knowledge as Invariance -- History and Perspectives of
Knowledge-augmented Machine Learning [69.99522650448213]
機械学習の研究は転換点にある。
研究の関心は、高度にパラメータ化されたモデルのパフォーマンス向上から、非常に具体的なタスクへとシフトしている。
このホワイトペーパーは、機械学習研究におけるこの新興分野の紹介と議論を提供する。
論文 参考訳(メタデータ) (2020-12-21T15:07:19Z) - A Hierarchy of Limitations in Machine Learning [0.0]
本稿では,社会に応用された機械学習におけるモデルの概念的,手続き的,統計的制限の包括的,構造化された概要を論じる。
モデラー自身は、記述された階層を使って、可能な障害点を特定し、それらに対処する方法を考えることができます。
機械学習モデルの消費者は、機械学習を適用するかどうか、場所、方法に関する決定に直面したときに、何を問うべきかを知ることができる。
論文 参考訳(メタデータ) (2020-02-12T19:39:29Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。