論文の概要: Pattern Inversion as a Pattern Recognition Method for Machine Learning
- arxiv url: http://arxiv.org/abs/2108.10242v1
- Date: Sun, 15 Aug 2021 10:25:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-29 14:20:03.278068
- Title: Pattern Inversion as a Pattern Recognition Method for Machine Learning
- Title(参考訳): 機械学習のためのパターン認識手法としてのパターンインバージョン
- Authors: Alexei Mikhailov, Mikhail Karavay
- Abstract要約: 本稿では,パターン認識におけるインデクシングに基づく手法について論じる。
パターン認識アプリケーションでは、このようなインデックス化手法が、完全に反転したファイルの逆パターンに取って代わることが示されている。
本稿では、新しいパターン変換を利用するパターン反転形式とその教師なしインスタント学習への応用について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial neural networks use a lot of coefficients that take a great deal
of computing power for their adjustment, especially if deep learning networks
are employed. However, there exist coefficients-free extremely fast
indexing-based technologies that work, for instance, in Google search engines,
in genome sequencing, etc. The paper discusses the use of indexing-based
methods for pattern recognition. It is shown that for pattern recognition
applications such indexing methods replace with inverse patterns the fully
inverted files, which are typically employed in search engines. Not only such
inversion provide automatic feature extraction, which is a distinguishing mark
of deep learning, but, unlike deep learning, pattern inversion supports almost
instantaneous learning, which is a consequence of absence of coefficients. The
paper discusses a pattern inversion formalism that makes use on a novel pattern
transform and its application for unsupervised instant learning. Examples
demonstrate a view-angle independent recognition of three-dimensional objects,
such as cars, against arbitrary background, prediction of remaining useful life
of aircraft engines, and other applications. In conclusion, it is noted that,
in neurophysiology, the function of the neocortical mini-column has been widely
debated since 1957. This paper hypothesize that, mathematically, the cortical
mini-column can be described as an inverse pattern, which physically serves as
a connection multiplier expanding associations of inputs with relevant pattern
classes.
- Abstract(参考訳): ニューラルネットワークは、特に深層学習ネットワークが採用されている場合、その調整に大量の計算能力を必要とする多くの係数を使用する。
しかし、例えばGoogle検索エンジンやゲノムシークエンシングなどにおいて、係数のない非常に高速なインデックス付けベースの技術が存在する。
本稿では,パターン認識におけるインデクシングに基づく手法について述べる。
パターン認識アプリケーションの場合、このようなインデックス化手法は逆パターンに置き換わり、完全に反転したファイルは一般的に検索エンジンで使用される。
このような逆転は、深層学習の目印である自動特徴抽出を提供するだけでなく、深層学習とは異なり、パターン逆転はほとんど瞬時学習をサポートしており、これは係数の欠如の結果である。
本稿では,新しいパターン変換を応用したパターン反転形式と教師なしインスタント学習への応用について述べる。
例として、自動車などの3次元物体の視角独立認識、任意の背景、航空機エンジンの寿命の予測、その他の応用例を挙げる。
結論として、神経生理学においては、新皮質小柱の機能は1957年以来広く議論されてきた。
本稿では, 数学的に, 皮質ミニカラムを逆パターンとして記述し, 入力と関連するパターンクラスとの結合を物理的に拡大する接続乗算器として機能することを仮定する。
関連論文リスト
- Understanding Activation Patterns in Artificial Neural Networks by
Exploring Stochastic Processes [0.0]
我々はこれまで未利用であったプロセスの枠組みを活用することを提案する。
我々は、実際のニューロンスパイク列車に使用される神経科学技術を活用した、アクティベーション周波数のみに焦点をあてる。
各ネットワークにおけるアクティベーションパターンを記述するパラメータを導出し、アーキテクチャとトレーニングセット間で一貫した差異を明らかにする。
論文 参考訳(メタデータ) (2023-08-01T22:12:30Z) - Unsupervised Learning of Invariance Transformations [105.54048699217668]
近似グラフ自己同型を見つけるためのアルゴリズムフレームワークを開発する。
重み付きグラフにおける近似自己同型を見つけるために、このフレームワークをどのように利用できるかについて議論する。
論文 参考訳(メタデータ) (2023-07-24T17:03:28Z) - What does self-attention learn from Masked Language Modelling? [54.6265485082737]
自己注意はマスキング言語モデリング(MLM)によって訓練される
単語の位置と埋め込みの処理を分離すると、単一の自己注意層が一般化されたポッツモデルの条件を学習することを示す。
また、このニューラルネットワークのトレーニングは、いわゆる擬似様相法によって逆ポッツ問題を解くのと全く同じであることを示す。
論文 参考訳(メタデータ) (2023-04-14T16:32:56Z) - Mechanism of feature learning in deep fully connected networks and
kernel machines that recursively learn features [15.29093374895364]
我々は,ニューラルネットワークが勾配特徴を学習するメカニズムを同定し,特徴付ける。
私たちのアンザッツは、突発的な特徴の出現や単純さのバイアスなど、さまざまな深層学習現象に光を当てています。
この特徴学習機構の有効性を実証するため,古典的非機能学習モデルにおいて特徴学習を可能にする。
論文 参考訳(メタデータ) (2022-12-28T15:50:58Z) - Learning Single-Index Models with Shallow Neural Networks [43.6480804626033]
我々は、浅層ニューラルネットワークの自然なクラスを導入し、勾配流を通して単一インデックスモデルを学習する能力について研究する。
対応する最適化ランドスケープが良性であることを示し、それによって専用半パラメトリック手法の準最適サンプル複雑性に一致するような一般化保証が得られることを示す。
論文 参考訳(メタデータ) (2022-10-27T17:52:58Z) - Measures of Information Reflect Memorization Patterns [53.71420125627608]
異なるニューロンの活性化パターンの多様性は、モデル一般化と記憶の反映であることを示す。
重要なことは、情報組織が記憶の2つの形態を指していることである。
論文 参考訳(メタデータ) (2022-10-17T20:15:24Z) - Generalization Properties of Retrieval-based Models [50.35325326050263]
検索ベースの機械学習手法は、幅広い問題で成功をおさめた。
これらのモデルの約束を示す文献が増えているにもかかわらず、そのようなモデルの理論的基盤はいまだに解明されていない。
本稿では,その一般化能力を特徴付けるために,検索ベースモデルの形式的処理を行う。
論文 参考訳(メタデータ) (2022-10-06T00:33:01Z) - A Novel Anomaly Detection Algorithm for Hybrid Production Systems based
on Deep Learning and Timed Automata [73.38551379469533]
DAD:DeepAnomalyDetectionは,ハイブリッド生産システムにおける自動モデル学習と異常検出のための新しいアプローチである。
深層学習とタイムドオートマトンを組み合わせて、観察から行動モデルを作成する。
このアルゴリズムは実システムからの2つのデータを含む少数のデータセットに適用され、有望な結果を示している。
論文 参考訳(メタデータ) (2020-10-29T08:27:43Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z) - Surprisal-Triggered Conditional Computation with Neural Networks [19.55737970532817]
自己回帰ニューラルネットワークモデルは、シーケンス生成、特徴抽出、仮説スコアリングに成功している。
本稿では,これらのモデルに対して,より複雑な入力により多くの計算を割り当てる,という新たな利用法を提案する。
論文 参考訳(メタデータ) (2020-06-02T14:34:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。