論文の概要: On the Preservation of Spatio-temporal Information in Machine Learning
Applications
- arxiv url: http://arxiv.org/abs/2006.08321v1
- Date: Mon, 15 Jun 2020 12:22:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 02:32:19.528008
- Title: On the Preservation of Spatio-temporal Information in Machine Learning
Applications
- Title(参考訳): 機械学習における時空間情報の保存について
- Authors: Yigit Oktar, Mehmet Turkan
- Abstract要約: 機械学習アプリケーションでは、各データ属性は他のものと仮定される。
Shift vectors-in $k$meansはスパース表現の助けを借りて、新しいフレームワークで提案されている。
実験により、浅層ニューラルネットワークのシミュレーションとしての特徴抽出はガボラル辞書学習よりも若干優れた性能が得られることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In conventional machine learning applications, each data attribute is assumed
to be orthogonal to others. Namely, every pair of dimension is orthogonal to
each other and thus there is no distinction of in-between relations of
dimensions. However, this is certainly not the case in real world signals which
naturally originate from a spatio-temporal configuration. As a result, the
conventional vectorization process disrupts all of the spatio-temporal
information about the order/place of data whether it be $1$D, $2$D, $3$D, or
$4$D. In this paper, the problem of orthogonality is first investigated through
conventional $k$-means of images, where images are to be processed as vectors.
As a solution, shift-invariant $k$-means is proposed in a novel framework with
the help of sparse representations. A generalization of shift-invariant
$k$-means, convolutional dictionary learning, is then utilized as an
unsupervised feature extraction method for classification. Experiments suggest
that Gabor feature extraction as a simulation of shallow convolutional neural
networks provides a little better performance compared to convolutional
dictionary learning. Many alternatives of convolutional-logic are also
discussed for spatio-temporal information preservation, including a
spatio-temporal hypercomplex encoding scheme.
- Abstract(参考訳): 従来の機械学習アプリケーションでは、各データ属性は他のものと直交していると仮定される。
すなわち、すべての次元の対は互いに直交しており、したがって次元間の関係の区別は存在しない。
しかし、時空間構成から自然に生じる実世界の信号では、これは確かにそうではない。
その結果、従来のベクトル化プロセスでは、1ドル、$$d、$$$d、$$$$d、$$$$$dといったデータの注文/場所に関する時間的・時間的情報をすべて破壊する。
本稿では、直交性の問題は、画像がベクトルとして処理される従来の1k$-meansのイメージを通して最初に検討される。
解として、シフト不変な$k$-means はスパース表現の助けを借りて、新しいフレームワークで提案されている。
シフト不変な$k$-means(畳み込み辞書学習)の一般化は、分類のための教師なし特徴抽出法として利用される。
実験により、浅い畳み込みニューラルネットワークのシミュレーションとしてのgabor特徴抽出は、畳み込み辞書学習よりも少し優れた性能をもたらすことが示唆された。
畳み込み論理の多くの代替法は時空間情報保存のためにも議論されている。
関連論文リスト
- Sample-Efficient Linear Representation Learning from Non-IID Non-Isotropic Data [4.971690889257356]
コリンズとナイアーとヴァスワニによって提案された交互最小化・退化スキームの適応について紹介する。
iidにおいてもバニラ変動最小化降下は破滅的に失敗するが, 軽度に非等方性データは得られない。
我々の分析は、事前の作業を統一し、一般化し、幅広いアプリケーションに柔軟なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-08-08T17:56:20Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Combining Varied Learners for Binary Classification using Stacked
Generalization [3.1871776847712523]
本稿では,高次元多嚢胞性卵巣症候群データセットを用いたスタックド一般化を用いたバイナリ分類を行う。
この論文では、受信器動作特性曲線で発見された微妙なトランスグレッションが誤りであることが証明されたことを指摘している。
論文 参考訳(メタデータ) (2022-02-17T21:47:52Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Mitigating Generation Shifts for Generalized Zero-Shot Learning [52.98182124310114]
一般化ゼロショット学習(英: Generalized Zero-Shot Learning、GZSL)は、学習中に見知らぬクラスが観察できない、見つからないサンプルを認識するために意味情報(属性など)を活用するタスクである。
本稿では,未知のデータ合成を効率よく,効率的に学習するための新しい生成シフト緩和フローフレームワークを提案する。
実験結果から,GSMFlowは従来のゼロショット設定と一般化されたゼロショット設定の両方において,最先端の認識性能を実現することが示された。
論文 参考訳(メタデータ) (2021-07-07T11:43:59Z) - High-dimensional separability for one- and few-shot learning [58.8599521537]
この作業は、実用的な質問、人工知能(AI)エラーの修正によって進められている。
特殊な外部デバイスである修正器が開発されている。従来のAIシステムを変更することなく、迅速かつ非イテレーティブなシステム修正を提供する必要がある。
AIシステムの新しいマルチコレクタが提示され、深層畳み込みニューラルネットワークによってエラーを予測し、新しいクラスのオブジェクトを学習する例が紹介される。
論文 参考訳(メタデータ) (2021-06-28T14:58:14Z) - DiGS : Divergence guided shape implicit neural representation for
unoriented point clouds [36.60407995156801]
形状暗黙的神経表現(INR)は近年,形状解析や再構成作業に有効であることが示されている。
本稿では,通常のベクトルを入力として必要としない分岐ガイド型形状表現学習手法を提案する。
論文 参考訳(メタデータ) (2021-06-21T02:10:03Z) - A Local Similarity-Preserving Framework for Nonlinear Dimensionality
Reduction with Neural Networks [56.068488417457935]
本稿では,Vec2vecという新しい局所非線形手法を提案する。
ニューラルネットワークを訓練するために、マトリックスの近傍類似度グラフを構築し、データポイントのコンテキストを定義します。
8つの実データセットにおけるデータ分類とクラスタリングの実験により、Vec2vecは統計仮説テストにおける古典的な次元削減法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-03-10T23:10:47Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z) - System Identification Through Lipschitz Regularized Deep Neural Networks [0.4297070083645048]
ニューラルネットワークを使って、データから支配方程式を学習します。
我々は、観測されたタイムスタンプデータから直接、ODEs $dotx(t) = f(t, x(t))$の右辺を再構築する。
論文 参考訳(メタデータ) (2020-09-07T17:52:51Z) - Masking schemes for universal marginalisers [1.0412114420493723]
本研究は,ユニバーサル・サマリヤのトレーニングにおける構造に依存しないマスキング・スキームの効果について考察する。
予測性能と一般化特性の観点から異なるマスキングスキームで訓練されたネットワークを比較した。
論文 参考訳(メタデータ) (2020-01-16T15:35:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。