論文の概要: A Hierarchy of Limitations in Machine Learning
- arxiv url: http://arxiv.org/abs/2002.05193v2
- Date: Sat, 29 Feb 2020 21:04:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 20:04:21.849527
- Title: A Hierarchy of Limitations in Machine Learning
- Title(参考訳): 機械学習における制限の階層
- Authors: Momin M. Malik
- Abstract要約: 本稿では,社会に応用された機械学習におけるモデルの概念的,手続き的,統計的制限の包括的,構造化された概要を論じる。
モデラー自身は、記述された階層を使って、可能な障害点を特定し、それらに対処する方法を考えることができます。
機械学習モデルの消費者は、機械学習を適用するかどうか、場所、方法に関する決定に直面したときに、何を問うべきかを知ることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: "All models are wrong, but some are useful", wrote George E. P. Box (1979).
Machine learning has focused on the usefulness of probability models for
prediction in social systems, but is only now coming to grips with the ways in
which these models are wrong---and the consequences of those shortcomings. This
paper attempts a comprehensive, structured overview of the specific conceptual,
procedural, and statistical limitations of models in machine learning when
applied to society. Machine learning modelers themselves can use the described
hierarchy to identify possible failure points and think through how to address
them, and consumers of machine learning models can know what to question when
confronted with the decision about if, where, and how to apply machine
learning. The limitations go from commitments inherent in quantification
itself, through to showing how unmodeled dependencies can lead to
cross-validation being overly optimistic as a way of assessing model
performance.
- Abstract(参考訳): ジョージ・E・P・ボックス(1979年)は「全てのモデルは間違っているが役に立つものもある。
機械学習は、社会システムにおける予測のための確率モデルの有用性に焦点を合わせてきたが、現在ではこれらのモデルが間違っている方法に不満を抱いている。
本稿では,機械学習におけるモデルの具体的概念,手続き的,統計的制約の包括的,構造化された概観を社会に適用することを試みる。
機械学習モデラー自身は、記述された階層を使って、可能な障害点を特定し、それらに対処する方法を考えることができる。
制限は、定量化自体に固有のコミットメントから、モデルパフォーマンスを評価する方法としてのクロスバリデーションが過度に楽観的になる可能性を示すことまで及んでいる。
関連論文リスト
- Transparency challenges in policy evaluation with causal machine learning -- improving usability and accountability [0.0]
モデルがどのように見積を行うかを理解するには、グローバルに解釈可能な方法はない。
因果機械学習モデルが公正な方法で機能しているかどうかを理解するのは難しい。
本稿では,透明性の問題が公共政策評価アプリケーションにおける因果的機械学習の課題である理由を考察する。
論文 参考訳(メタデータ) (2023-10-20T02:48:29Z) - Fairness Implications of Heterogeneous Treatment Effect Estimation with
Machine Learning Methods in Policy-making [0.0]
予測機械学習の標準的なAIフェアネスアプローチは、すべての因果機械学習アプリケーションに適していないと我々は主張する。
政策決定は、通常、因果的機械学習モデルが間接的な力しか持たないような共同決定である、と我々は主張する。
論文 参考訳(メタデータ) (2023-09-02T03:06:14Z) - Ecosystem-level Analysis of Deployed Machine Learning Reveals Homogeneous Outcomes [72.13373216644021]
本研究では,機械学習の社会的影響を,特定の文脈に展開されるモデルの集合を考慮し検討する。
デプロイされた機械学習はシステム障害を起こしやすいため、利用可能なすべてのモデルに排他的に誤分類されているユーザもいます。
これらの例は、エコシステムレベルの分析が、機械学習の社会的影響を特徴づける独自の強みを持っていることを示している。
論文 参考訳(メタデータ) (2023-07-12T01:11:52Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Machine Learning with a Reject Option: A survey [18.43771007525432]
この調査は、拒絶を伴う機械学習の概要を提供することを目的としている。
本稿では,2種類の拒絶,曖昧さ,新規性拒絶につながる条件を紹介する。
我々は,モデルの予測的,拒絶的品質を評価するための戦略をレビューし,分類する。
論文 参考訳(メタデータ) (2021-07-23T14:43:56Z) - Recurrence-Aware Long-Term Cognitive Network for Explainable Pattern
Classification [0.0]
構造化データの解釈可能なパターン分類のためのLCCNモデルを提案する。
本手法は, 決定過程における各特徴の関連性を定量化し, 説明を提供する独自のメカニズムを提供する。
解釈可能なモデルでは,最先端の白黒ボックスと比較して競争性能が向上する。
論文 参考訳(メタデータ) (2021-07-07T18:14:50Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Sufficiently Accurate Model Learning for Planning [119.80502738709937]
本稿では,制約付きSufficiently Accurateモデル学習手法を提案する。
これはそのような問題の例を示し、いくつかの近似解がいかに近いかという定理を提示する。
近似解の質は、関数のパラメータ化、損失と制約関数の滑らかさ、モデル学習におけるサンプルの数に依存する。
論文 参考訳(メタデータ) (2021-02-11T16:27:31Z) - Choice modelling in the age of machine learning -- discussion paper [0.27998963147546135]
機械学習モデル、テクニック、プラクティスの相互補完は、現在の理論駆動パラダイムで直面する問題や制限を克服するのに役立ちます。
選択モデリングのプラクティスを改善するために機械学習の進歩を使用することの潜在的な利点にもかかわらず、選択モデリングの分野は機械学習を受け入れることをためらっている。
論文 参考訳(メタデータ) (2021-01-28T11:57:08Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。