論文の概要: On minimizers and convolutional filters: a partial justification for the
unreasonable effectiveness of CNNs in categorical sequence analysis
- arxiv url: http://arxiv.org/abs/2111.08452v1
- Date: Tue, 9 Nov 2021 19:02:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-11-21 14:29:27.501795
- Title: On minimizers and convolutional filters: a partial justification for the
unreasonable effectiveness of CNNs in categorical sequence analysis
- Title(参考訳): 最小化器と畳み込みフィルタについて:カテゴリー解析におけるcnnの不当な有効性に対する部分的正当化
- Authors: Yun William Yu
- Abstract要約: 最小化器と畳み込みニューラルネットワーク(CNN)は、どちらも生物学的配列を分析するために使われている、非常に一般的な2つの技術である。
本稿では,最小化器と畳み込みフィルタの間に深い理論的関係がある,ハッシュ関数特性の数学的解析を慎重に行う。
これは、分類配列解析におけるCNNの理不尽な有効性に関する部分的な説明を提供する。
- 参考スコア(独自算出の注目度): 0.5076419064097734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Minimizers and convolutional neural networks (CNNs) are two quite distinct
popular techniques that have both been employed to analyze biological
sequences. At face value, the methods seem entirely dissimilar. Minimizers use
min-wise hashing on a rolling window to extract a single important k-mer
feature per window. CNNs start with a wide array of randomly initialized
convolutional filters, paired with a pooling operation, and then multiple
additional neural layers to learn both the filters themselves and how those
filters can be used to classify the sequence. In this manuscript, I demonstrate
through a careful mathematical analysis of hash function properties that there
are deep theoretical connections between minimizers and convolutional filters
-- in short, for sequences over a categorical alphabet, random Gaussian
initialization of convolutional filters with max-pooling is equivalent to
choosing minimizers from a random hash function biased towards more distinct
k-mers. This provides a partial explanation for the unreasonable effectiveness
of CNNs in categorical sequence analysis.
- Abstract(参考訳): 最小化と畳み込みニューラルネットワーク(cnns)は、2つの非常に異なる手法であり、どちらも生物学的シーケンスの解析に使われている。
対面値では、メソッドは完全に異なるように思える。
最小化器はローリングウィンドウにミニワイズハッシュを使用して、ウィンドウ毎に単一の重要なk-mer機能を抽出する。
CNNは、ランダムに初期化された畳み込みフィルタの幅広い配列から始まり、プール操作と組み合わせて、さらに複数のニューラルネットワーク層を追加して、フィルタ自体と、それらのフィルタを使ってシーケンスを分類する方法を学ぶ。
この原稿では、最小化器と畳み込みフィルタの間には、理論的に深い関係があることを数学的に分析して示します -- つまり、カテゴリアルファベット上の列に対して、最大プール付き畳み込みフィルタのランダムガウス初期化は、より異なるk-merに偏ったランダムハッシュ関数から最小値を選択することに等価です。
これは、分類配列解析におけるCNNの理不尽な有効性に関する部分的な説明を提供する。
関連論文リスト
- On the rates of convergence for learning with convolutional neural networks [9.772773527230134]
畳み込みニューラルネットワーク(CNN)の1側ゼロパディングと複数のチャネルによる近似と学習能力について検討した。
多くの学習問題におけるCNNに基づく推定器の収束率を導出する。
また、得られた分類率は、いくつかの一般的な設定において極小であることも示している。
論文 参考訳(メタデータ) (2024-03-25T06:42:02Z) - Optimized classification with neural ODEs via separability [0.0]
ニューラル常微分方程式(ニューラルODE)のレンズを通して見た場合、N$点の分類は同時制御問題となる
本研究では,効率的なクラスタ分類に必要なニューロン数を推定することに焦点を当てた。
我々は任意の初期設定から$d$ポイントのクラスタを同時に分類する新しい構成的アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-21T12:56:40Z) - The Power of Linear Combinations: Learning with Random Convolutions [2.0305676256390934]
現代のCNNは、ランダムな(空間的な)畳み込みフィルタを更新することなく、高いテスト精度を達成することができる。
これらのランダムフィルタの組み合わせは、結果の操作を暗黙的に正規化することができる。
私たちは3ドル3セントの畳み込みを学習することで比較的小さな利益しか得られないが、学習率はカーネルサイズに比例して増加する。
論文 参考訳(メタデータ) (2023-01-26T19:17:10Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - Batch Normalization Tells You Which Filter is Important [49.903610684578716]
我々は,事前学習したCNNのBNパラメータに基づいて,各フィルタの重要性を評価することによって,簡易かつ効果的なフィルタ刈取法を提案する。
CIFAR-10とImageNetの実験結果から,提案手法が優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-12-02T12:04:59Z) - Achieving Small Test Error in Mildly Overparameterized Neural Networks [30.664282759625948]
時間内にこれらの点の1つを見つけるアルゴリズムを示す。
さらに、我々は、完全に接続されたニューラルネットワークのために、データ分布に追加の仮定で、時間アルゴリズムがあることを証明します。
論文 参考訳(メタデータ) (2021-04-24T06:47:20Z) - Byzantine-Resilient Non-Convex Stochastic Gradient Descent [61.6382287971982]
敵対的レジリエントな分散最適化。
機械は独立して勾配を計算し 協力することができます
私達のアルゴリズムは新しい集中の技術およびサンプル複雑性に基づいています。
それは非常に実用的です:それはないときすべての前の方法の性能を改善します。
セッティングマシンがあります。
論文 参考訳(メタデータ) (2020-12-28T17:19:32Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Improving the Backpropagation Algorithm with Consequentialism Weight
Updates over Mini-Batches [0.40611352512781856]
適応フィルタのスタックとして多層ニューラルネットワークを考えることが可能であることを示す。
我々は,BPで発生した行動の悪影響を予測し,その発生前にも予測し,よりよいアルゴリズムを導入する。
我々の実験は、ディープニューラルネットワークのトレーニングにおけるアルゴリズムの有用性を示す。
論文 参考訳(メタデータ) (2020-03-11T08:45:36Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。