論文の概要: Pattern Inversion as a Pattern Recognition Method for Machine Learning
- arxiv url: http://arxiv.org/abs/2108.10242v1
- Date: Sun, 15 Aug 2021 10:25:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-29 14:20:03.278068
- Title: Pattern Inversion as a Pattern Recognition Method for Machine Learning
- Title(参考訳): 機械学習のためのパターン認識手法としてのパターンインバージョン
- Authors: Alexei Mikhailov, Mikhail Karavay
- Abstract要約: 本稿では,パターン認識におけるインデクシングに基づく手法について論じる。
パターン認識アプリケーションでは、このようなインデックス化手法が、完全に反転したファイルの逆パターンに取って代わることが示されている。
本稿では、新しいパターン変換を利用するパターン反転形式とその教師なしインスタント学習への応用について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial neural networks use a lot of coefficients that take a great deal
of computing power for their adjustment, especially if deep learning networks
are employed. However, there exist coefficients-free extremely fast
indexing-based technologies that work, for instance, in Google search engines,
in genome sequencing, etc. The paper discusses the use of indexing-based
methods for pattern recognition. It is shown that for pattern recognition
applications such indexing methods replace with inverse patterns the fully
inverted files, which are typically employed in search engines. Not only such
inversion provide automatic feature extraction, which is a distinguishing mark
of deep learning, but, unlike deep learning, pattern inversion supports almost
instantaneous learning, which is a consequence of absence of coefficients. The
paper discusses a pattern inversion formalism that makes use on a novel pattern
transform and its application for unsupervised instant learning. Examples
demonstrate a view-angle independent recognition of three-dimensional objects,
such as cars, against arbitrary background, prediction of remaining useful life
of aircraft engines, and other applications. In conclusion, it is noted that,
in neurophysiology, the function of the neocortical mini-column has been widely
debated since 1957. This paper hypothesize that, mathematically, the cortical
mini-column can be described as an inverse pattern, which physically serves as
a connection multiplier expanding associations of inputs with relevant pattern
classes.
- Abstract(参考訳): ニューラルネットワークは、特に深層学習ネットワークが採用されている場合、その調整に大量の計算能力を必要とする多くの係数を使用する。
しかし、例えばGoogle検索エンジンやゲノムシークエンシングなどにおいて、係数のない非常に高速なインデックス付けベースの技術が存在する。
本稿では,パターン認識におけるインデクシングに基づく手法について述べる。
パターン認識アプリケーションの場合、このようなインデックス化手法は逆パターンに置き換わり、完全に反転したファイルは一般的に検索エンジンで使用される。
このような逆転は、深層学習の目印である自動特徴抽出を提供するだけでなく、深層学習とは異なり、パターン逆転はほとんど瞬時学習をサポートしており、これは係数の欠如の結果である。
本稿では,新しいパターン変換を応用したパターン反転形式と教師なしインスタント学習への応用について述べる。
例として、自動車などの3次元物体の視角独立認識、任意の背景、航空機エンジンの寿命の予測、その他の応用例を挙げる。
結論として、神経生理学においては、新皮質小柱の機能は1957年以来広く議論されてきた。
本稿では, 数学的に, 皮質ミニカラムを逆パターンとして記述し, 入力と関連するパターンクラスとの結合を物理的に拡大する接続乗算器として機能することを仮定する。
関連論文リスト
- Scale-Free Image Keypoints Using Differentiable Persistent Homology [3.5263582734967307]
コンピュータビジョンでは、キーポイント検出は、ロボット工学から画像検索に至るまでの応用において、基本的な課題である。
本稿では、モース理論と永続ホモロジー、代数トポロジーに根ざした強力なツールを活用する新しいアプローチを紹介する。
本稿では,近年の永続的ホモロジーにおける下位段階の概念を導入し,トポロジカルラーニングへの道を開いた新しい損失関数を提案する。
論文 参考訳(メタデータ) (2024-06-03T13:27:51Z) - Detecting Moving Objects With Machine Learning [0.0]
本章では、天体画像中の移動物体を見つけるための機械学習技術の使用について概説する。
オーバーフィッティング(overfitting)の重要な問題についての議論を含む、機械学習技術の使用に関するさまざまな落とし穴について論じる。
論文 参考訳(メタデータ) (2024-05-10T00:13:39Z) - Understanding Activation Patterns in Artificial Neural Networks by
Exploring Stochastic Processes [0.0]
我々はこれまで未利用であったプロセスの枠組みを活用することを提案する。
我々は、実際のニューロンスパイク列車に使用される神経科学技術を活用した、アクティベーション周波数のみに焦点をあてる。
各ネットワークにおけるアクティベーションパターンを記述するパラメータを導出し、アーキテクチャとトレーニングセット間で一貫した差異を明らかにする。
論文 参考訳(メタデータ) (2023-08-01T22:12:30Z) - Unsupervised Learning of Invariance Transformations [105.54048699217668]
近似グラフ自己同型を見つけるためのアルゴリズムフレームワークを開発する。
重み付きグラフにおける近似自己同型を見つけるために、このフレームワークをどのように利用できるかについて議論する。
論文 参考訳(メタデータ) (2023-07-24T17:03:28Z) - Mapping of attention mechanisms to a generalized Potts model [50.91742043564049]
ニューラルネットワークのトレーニングは、いわゆる擬似様相法によって逆ポッツ問題を解くのと全く同じであることを示す。
また、レプリカ法を用いてモデルシナリオにおける自己意図の一般化誤差を解析的に計算する。
論文 参考訳(メタデータ) (2023-04-14T16:32:56Z) - Learning Single-Index Models with Shallow Neural Networks [43.6480804626033]
我々は、浅層ニューラルネットワークの自然なクラスを導入し、勾配流を通して単一インデックスモデルを学習する能力について研究する。
対応する最適化ランドスケープが良性であることを示し、それによって専用半パラメトリック手法の準最適サンプル複雑性に一致するような一般化保証が得られることを示す。
論文 参考訳(メタデータ) (2022-10-27T17:52:58Z) - Measures of Information Reflect Memorization Patterns [53.71420125627608]
異なるニューロンの活性化パターンの多様性は、モデル一般化と記憶の反映であることを示す。
重要なことは、情報組織が記憶の2つの形態を指していることである。
論文 参考訳(メタデータ) (2022-10-17T20:15:24Z) - Generalization Properties of Retrieval-based Models [50.35325326050263]
検索ベースの機械学習手法は、幅広い問題で成功をおさめた。
これらのモデルの約束を示す文献が増えているにもかかわらず、そのようなモデルの理論的基盤はいまだに解明されていない。
本稿では,その一般化能力を特徴付けるために,検索ベースモデルの形式的処理を行う。
論文 参考訳(メタデータ) (2022-10-06T00:33:01Z) - A Novel Anomaly Detection Algorithm for Hybrid Production Systems based
on Deep Learning and Timed Automata [73.38551379469533]
DAD:DeepAnomalyDetectionは,ハイブリッド生産システムにおける自動モデル学習と異常検出のための新しいアプローチである。
深層学習とタイムドオートマトンを組み合わせて、観察から行動モデルを作成する。
このアルゴリズムは実システムからの2つのデータを含む少数のデータセットに適用され、有望な結果を示している。
論文 参考訳(メタデータ) (2020-10-29T08:27:43Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z) - Surprisal-Triggered Conditional Computation with Neural Networks [19.55737970532817]
自己回帰ニューラルネットワークモデルは、シーケンス生成、特徴抽出、仮説スコアリングに成功している。
本稿では,これらのモデルに対して,より複雑な入力により多くの計算を割り当てる,という新たな利用法を提案する。
論文 参考訳(メタデータ) (2020-06-02T14:34:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。