論文の概要: On "Deep Learning" Misconduct
- arxiv url: http://arxiv.org/abs/2211.16350v1
- Date: Wed, 23 Nov 2022 17:04:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-04 13:57:59.566232
- Title: On "Deep Learning" Misconduct
- Title(参考訳): 深層学習」の過ちについて
- Authors: Juyang Weng
- Abstract要約: 深層学習」プロジェクトは「データ削除」と「トレーニングデータのテスト」という、明らかに同じ不正行為に悩まされている。
本稿では,Pure-Guess Nearest Neighbor (PGNN) と呼ばれる単純な手法が,ゼロエラー条件を含む検証セットとテストセット上で必要なエラーに達するという定理を確立する。
- 参考スコア(独自算出の注目度): 1.941730292017383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This is a theoretical paper, as a companion paper of the plenary talk for the
same conference ISAIC 2022. In contrast to conscious learning, which develops a
single network for a normal life and is the main topic of the plenary talk, it
is necessary to address the currently widespread approach, so-called "Deep
Learning". Although "Deep Learning" may use different learning modes, including
supervised, reinforcement and adversarial modes, almost all "Deep Learning"
projects apparently suffer from the same misconduct, called "data deletion" and
"test on training data". Consequently, Deep Learning almost always was not
tested at all. Why? The so-called "test set" was used in the Post-Selection
step of the training stage. This paper establishes a theorem that a simple
method called Pure-Guess Nearest Neighbor (PGNN) reaches any required errors on
validation set and test set, including zero-error requirements, through the
"Deep Learning" misconduct, as long as the test set is in the possession of the
author and both the amount of storage space and the time of training are finite
but unbounded. However, Deep Learning methods, like the PGNN method, apparently
are not generalizable since they have never been tested at all by a valid test
set.
- Abstract(参考訳): 本論文は、ISAIC 2022と同一会議の議事録の共用論文として、理論的論文である。
通常の生活のための単一のネットワークを発達させ、その主要なトピックである意識学習とは対照的に、現在広く普及しているアプローチである「深層学習」に取り組む必要がある。
ディープラーニング(Deep Learning)は、教師付き、強化、敵対的なモードを含む異なる学習モードを使用する場合もあるが、ほとんど全てのディープラーニングプロジェクトは、データ削除(data deletion)や「トレーニングデータのテスト(test on training data)」と呼ばれる同じ不正行為に悩まされている。
その結果、ディープラーニングはほとんど常にテストされなかった。
なぜだ?
いわゆる「テストセット」は、トレーニングステージのポストセレクションステップで使用された。
本稿では,テストセットが著者の所有であり,記憶空間の量とトレーニング時間の両方が有限だが非有界である限り,ゼロエラー条件を含む検証セットとテストセットの任意の必要誤差に達するという定理を確立する。
しかし、PGNN法のようにDeep Learning法は、有効なテストセットでテストされたことが全くないため、明らかに一般化できない。
関連論文リスト
- Why Deep Learning's Performance Data Are Misleading [1.941730292017383]
本稿では「データ削除」と「トレーニングセットのテスト」という2つの不正行為により、パフォーマンスデータが著しく膨らませられていることを説明します。
NNWT(Nearest Neighbor With Threshold)と呼ばれる単純な分類法が定義される
論文 参考訳(メタデータ) (2022-08-23T23:24:28Z) - Intersection of Parallels as an Early Stopping Criterion [64.8387564654474]
そこで本研究では,検証セットを必要とせずに,トレーニングイテレーションの早期停止点を見つける手法を提案する。
幅広い学習率において,コサイン距離基準 (CDC) と呼ばれる手法は,比較したすべての手法よりも平均的な一般化に寄与する。
論文 参考訳(メタデータ) (2022-08-19T19:42:41Z) - APP: Anytime Progressive Pruning [104.36308667437397]
本稿では,特にオンライン学習の場合において,ニューラルネットワークをターゲット空間でトレーニングする方法を提案する。
提案手法は,複数のアーキテクチャやデータセットにまたがるベースライン密度とAnytime OSPモデルにおいて,短時間で適度かつ長時間のトレーニングにおいて,大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-04-04T16:38:55Z) - Winning solutions and post-challenge analyses of the ChaLearn AutoDL
challenge 2019 [112.36155380260655]
本稿では,ChaLearnのAutoDLチャレンジシリーズの結果と今後の課題について述べる。
その結果,一般的なニューラルネットワーク探索(NAS)は実用的ではなかったものの,DL手法が支配的であったことが示唆された。
メタラーナー"、"データインジェクタ"、"モデルセレクタ"、"モデル/ラーナー"、"評価器"を特徴とする、ハイレベルなモジュール化組織が登場した。
論文 参考訳(メタデータ) (2022-01-11T06:21:18Z) - Iterative Pseudo-Labeling with Deep Feature Annotation and
Confidence-Based Sampling [127.46527972920383]
大規模で注釈付きデータセットが利用できない場合には、ディープニューラルネットワークのトレーニングは難しい。
我々は、最も確実な教師なしサンプルを選択して、深層ニューラルネットワークを反復的に訓練することで、最近の反復的擬似ラベル技術であるDeep Featureを改善した。
まず最初に、自己学習されたディープニューラルネットワークであるベースラインの最適な設定を確認し、異なる信頼しきい値に対してDeepFAを評価する。
論文 参考訳(メタデータ) (2021-09-06T20:02:13Z) - Toward the Understanding of Deep Text Matching Models for Information
Retrieval [72.72380690535766]
本稿では,既存の深層テキストマッチング手法が情報検索の基本的な勾配を満たすかどうかを検証することを目的とする。
具体的には, 項周波数制約, 項識別制約, 長さ正規化制約, TF長制約の4つの属性を用いる。
LETOR 4.0 と MS Marco の実験結果から,研究対象の深層テキストマッチング手法はすべて,統計学において高い確率で上記の制約を満たすことが示された。
論文 参考訳(メタデータ) (2021-08-16T13:33:15Z) - On the Theory of Reinforcement Learning with Once-per-Episode Feedback [120.5537226120512]
本稿では,エピソード終盤に一度だけフィードバックを受ける強化学習の理論を紹介する。
これは、学習者が毎回フィードバックを受け取るという従来の要件よりも、現実世界のアプリケーションの代表的です。
論文 参考訳(メタデータ) (2021-05-29T19:48:51Z) - Targeted Deep Learning: Framework, Methods, and Applications [0.3553493344868413]
ディープラーニングシステムは通常、幅広いテスト入力を実行するように設計されています。
医療は、現在、個々の患者に対する治療のターゲティングに興味があります。
深層学習を対象とするアプリケーションにおいて,ディープラーニングと呼ぶことを提案する。
論文 参考訳(メタデータ) (2021-05-28T18:37:12Z) - How to fine-tune deep neural networks in few-shot learning? [2.0077237398506536]
深層モデルの微調整は単純で効果的な数ショット学習法である。
実験結果から深部モデルを微調整する方法を考察する。
論文 参考訳(メタデータ) (2020-12-01T01:20:59Z) - On the Power of Deep but Naive Partial Label Learning [9.89901717499058]
本稿では,ニューラルネットワークを応用した最古かつ最も単純な手法の隠れたパワーを明らかにする。
ディープニューラルネットワークでは、ナイーブモデルが他の最先端手法と競合する性能を達成できることが示される。
また、このようなナイーブなモデルがディープニューラルネットワークとどのようにうまく機能するかという問題にも対処する。
論文 参考訳(メタデータ) (2020-10-22T11:02:56Z) - A Wholistic View of Continual Learning with Deep Neural Networks:
Forgotten Lessons and the Bridge to Active and Open World Learning [8.188575923130662]
オープンデータセット認識による顕著な教訓,観測データセット外の統計的逸脱したデータの識別,および近接するアクティブラーニングの分野は,深層学習時代においてしばしば見過ごされる。
我々の結果は、これは個々のパラダイムに利益をもたらすだけでなく、共通のフレームワークにおける自然なシナジーを強調していることを示している。
論文 参考訳(メタデータ) (2020-09-03T16:56:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。