論文の概要: Comments on Leo Breiman's paper 'Statistical Modeling: The Two Cultures'
(Statistical Science, 2001, 16(3), 199-231)
- arxiv url: http://arxiv.org/abs/2103.11327v1
- Date: Sun, 21 Mar 2021 07:40:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:20:23.759547
- Title: Comments on Leo Breiman's paper 'Statistical Modeling: The Two Cultures'
(Statistical Science, 2001, 16(3), 199-231)
- Title(参考訳): leo breiman の論文 "statistical modeling: the two cultures" (statistical science, 2001, 16(3), 199-231) に対するコメント
- Authors: Jelena Bradic and Yinchu Zhu
- Abstract要約: ブレマンは統計学者に、より広く考え、未知のモデルのない学習世界に踏み込むよう求めた。
新たなフロンティアが出現し、学習アルゴリズムの役割、影響、安定性が予測品質によって測定されるのではなく、推論によって測定されるようになる。
- 参考スコア(独自算出の注目度): 1.2183405753834562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Breiman challenged statisticians to think more broadly, to step into the
unknown, model-free learning world, with him paving the way forward. Statistics
community responded with slight optimism, some skepticism, and plenty of
disbelief. Today, we are at the same crossroad anew. Faced with the enormous
practical success of model-free, deep, and machine learning, we are naturally
inclined to think that everything is resolved. A new frontier has emerged; the
one where the role, impact, or stability of the {\it learning} algorithms is no
longer measured by prediction quality, but an inferential one -- asking the
questions of {\it why} and {\it if} can no longer be safely ignored.
- Abstract(参考訳): breiman氏は統計学者に、未知のモデルフリーな学習の世界に足を踏み入れるために、もっと広く考えるように求めた。
統計コミュニティはわずかな楽観主義、いくつかの懐疑主義、多くの不信感で反応した。
今日、私たちは新しい交差点にいます。
モデルフリー、ディープ、そして機械学習の巨大な実践的な成功に直面した私たちは、すべてが解決されていると考える傾向があります。
アルゴリズムの役割、影響、安定性がもはや予測品質によって測定されるのではなく、推論的なものとなり、"it why} と "it if} の質問はもはや無視できない。
関連論文リスト
- A comparative study of conformal prediction methods for valid uncertainty quantification in machine learning [0.0]
論文は、誰もが不確実性に気付いていて、それがどれほど重要か、そしてそれを恐れずにそれをどのように受け入れるか、という世界を探求しようとします。
しかし、正確な不確実性推定を誰でも得るための特定のフレームワークが選別され、分析される。
論文 参考訳(メタデータ) (2024-05-03T13:19:33Z) - R-Tuning: Instructing Large Language Models to Say `I Don't Know' [66.11375475253007]
大きな言語モデル(LLM)は、優れたパフォーマンスで多くのドメインに革命をもたらしたが、それでもその課題に直面している。
事前の指導チューニング方法は、モデルが知識を知っているかどうかに関わらず、モデルに文章を完成させるよう強制する。
我々はRefusal-Aware Instruction Tuning (R-Tuning)と呼ばれる新しいアプローチを提案する。
実験の結果、R-Tuningは、既知の質問に答えたり、未知の質問に答えるのを控えるモデルの能力を効果的に改善することを示した。
論文 参考訳(メタデータ) (2023-11-16T08:45:44Z) - Improving the Reliability of Large Language Models by Leveraging
Uncertainty-Aware In-Context Learning [76.98542249776257]
大規模言語モデルはしばしば「ハロシン化」の課題に直面している
本研究では,不確実性に応答してモデルが出力を拡張あるいは拒否することを可能にする,不確実性を考慮したコンテキスト内学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-07T12:06:53Z) - Overcoming Overconfidence for Active Learning [1.2776312584227847]
本稿では,アクティブな学習シナリオで発生する過信の問題に対処する2つの新しい手法を提案する。
1つ目はCross-Mix-and-Mix(CMaM)と呼ばれる拡張戦略で、限られたトレーニング分布を拡張してモデルを校正することを目的としている。
2つ目は Ranked Margin Sampling (RankedMS) という選択戦略である。
論文 参考訳(メタデータ) (2023-08-21T09:04:54Z) - Sources of Uncertainty in Machine Learning -- A Statisticians' View [3.1498833540989413]
本論文は,機械学習に関連する2種類の不確実性について定式化することを目的とする。
機械学習における統計的概念と不確実性の間の類似性を引き合いに出し、データの役割とその不確実性への影響を実証する。
論文 参考訳(メタデータ) (2023-05-26T07:44:19Z) - Do Not Trust a Model Because It is Confident: Uncovering and
Characterizing Unknown Unknowns to Student Success Predictors in Online-Based
Learning [10.120425915106727]
学生の成功モデルは弱い点、すなわち正確に分類するのが難しい例を発達させる傾向がある。
この弱点は、モデル予測が、例えば、インストラクターが必要に応じて学生に介入しないように誘導するので、ユーザの信頼を損なう主要な要因の1つである。
本稿では,学生の成功予測における未知の未知の発見と特徴付けの必要性を明らかにする。
論文 参考訳(メタデータ) (2022-12-16T15:32:49Z) - What killed the Convex Booster ? [70.04715330065275]
LongとServedioの目覚ましい否定的な結果は、教師付き学習トリオの最悪の大失敗を生んだ。
否定的な結果の源泉は,ML の広範(あるいはそれ以外は注目に値する)な側面のダークサイドにある,と我々は主張する。
論文 参考訳(メタデータ) (2022-05-19T15:42:20Z) - Efficient First-Order Contextual Bandits: Prediction, Allocation, and
Triangular Discrimination [82.52105963476703]
統計的学習、オンライン学習、その他における繰り返しのテーマは、低騒音の問題に対してより速い収束率が可能であることである。
1次保証は統計的およびオンライン学習において比較的よく理解されている。
三角識別と呼ばれる対数損失と情報理論量が一階保証を得る上で基本的な役割を担っていることを示す。
論文 参考訳(メタデータ) (2021-07-05T19:20:34Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z) - Constrained Learning with Non-Convex Losses [119.8736858597118]
学習は現代の情報処理の中核技術になっているが、バイアス、安全でない、偏見のあるソリューションにつながるという証拠はたくさんある。
論文 参考訳(メタデータ) (2021-03-08T23:10:33Z) - Bridging Breiman's Brook: From Algorithmic Modeling to Statistical
Learning [6.837936479339647]
2001年、レオ・ブレイマンは「データモデリング」と「アルゴリズムモデリング」の文化の違いについて書いた。
20年後のこの区分は、個人をキャンプに割り当てること、知的境界の両面で、はるかに短命であると感じた。
これは主に、アルゴリズムメソッドをツールボックスに組み込んだ「データモデラー」によるものだと主張しています。
論文 参考訳(メタデータ) (2021-02-23T03:38:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。