論文の概要: Tensor Methods in Computer Vision and Deep Learning
- arxiv url: http://arxiv.org/abs/2107.03436v1
- Date: Wed, 7 Jul 2021 18:42:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-09 13:38:13.180400
- Title: Tensor Methods in Computer Vision and Deep Learning
- Title(参考訳): コンピュータビジョンとディープラーニングにおけるテンソル法
- Authors: Yannis Panagakis, Jean Kossaifi, Grigorios G. Chrysos, James Oldfield,
Mihalis A. Nicolaou, Anima Anandkumar, Stefanos Zafeiriou
- Abstract要約: テンソル(tensor)は、複数の次元の視覚データを自然に表現できるデータ構造である。
コンピュータビジョンにおけるディープラーニングパラダイムシフトの出現により、テンソルはさらに基本的なものになっている。
本稿では,表現学習と深層学習の文脈において,テンソルとテンソル法を深く,実践的に検討する。
- 参考スコア(独自算出の注目度): 120.3881619902096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensors, or multidimensional arrays, are data structures that can naturally
represent visual data of multiple dimensions. Inherently able to efficiently
capture structured, latent semantic spaces and high-order interactions, tensors
have a long history of applications in a wide span of computer vision problems.
With the advent of the deep learning paradigm shift in computer vision, tensors
have become even more fundamental. Indeed, essential ingredients in modern deep
learning architectures, such as convolutions and attention mechanisms, can
readily be considered as tensor mappings. In effect, tensor methods are
increasingly finding significant applications in deep learning, including the
design of memory and compute efficient network architectures, improving
robustness to random noise and adversarial attacks, and aiding the theoretical
understanding of deep networks.
This article provides an in-depth and practical review of tensors and tensor
methods in the context of representation learning and deep learning, with a
particular focus on visual data analysis and computer vision applications.
Concretely, besides fundamental work in tensor-based visual data analysis
methods, we focus on recent developments that have brought on a gradual
increase of tensor methods, especially in deep learning architectures, and
their implications in computer vision applications. To further enable the
newcomer to grasp such concepts quickly, we provide companion Python notebooks,
covering key aspects of the paper and implementing them, step-by-step with
TensorLy.
- Abstract(参考訳): テンソル(英: Tensors)は、複数の次元の視覚データを自然に表現できるデータ構造である。
構造的、潜在的セマンティック空間と高次相互作用を効率的に捉えることができ、テンソルは幅広いコンピュータビジョン問題において長い歴史を持つ。
コンピュータビジョンにおけるディープラーニングパラダイムシフトの出現により、テンソルはさらに根本的なものになった。
実際、畳み込みや注意機構といった現代のディープラーニングアーキテクチャにおける重要な要素は、容易にテンソルマッピングとみなすことができる。
実際、テンソル法は、メモリと計算効率のよいネットワークアーキテクチャの設計、ランダムノイズや敵攻撃に対するロバスト性の改善、ディープネットワークの理論的理解の支援など、ディープラーニングにおいて重要な応用を見出している。
本稿では,視覚データ解析とコンピュータビジョンアプリケーションを中心に,表現学習とディープラーニングの文脈におけるテンソル法とテンソル法について,深く実践的なレビューを行う。
具体的には,テンソルに基づくビジュアルデータ解析法の基本的研究に加えて,特にディープラーニングアーキテクチャにおけるテンソル手法の漸進的な増加と,コンピュータビジョンアプリケーションにおけるその影響に焦点をあてる。
さらに,新参者がこのような概念を素早く把握できるようにするために,論文の重要な側面をカバーするとともに,tensorlyでステップバイステップで実装したpythonノートブックを提供する。
関連論文リスト
- Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Integration and Performance Analysis of Artificial Intelligence and
Computer Vision Based on Deep Learning Algorithms [5.734290974917728]
本稿では,ディープラーニングとコンピュータビジョン技術の統合による応用効果の分析に焦点をあてる。
ディープラーニングは階層型ニューラルネットワークを構築することで歴史的なブレークスルーを実現し、エンドツーエンドの機能学習と画像の意味的理解を可能にする。
コンピュータビジョンの分野で成功した経験は、ディープラーニングアルゴリズムのトレーニングに強力なサポートを提供する。
論文 参考訳(メタデータ) (2023-12-20T09:37:06Z) - Breaking the Curse of Dimensionality in Deep Neural Networks by Learning
Invariant Representations [1.9580473532948401]
この論文は、これらのモデルのアーキテクチャとそれらが処理するデータ内の固有の構造との関係を研究することによって、ディープラーニングの理論的基礎を探求する。
ディープラーニングアルゴリズムの有効性を駆動するものは何か,いわゆる次元の呪いに勝てるのか,と問う。
本手法は,実験的な研究と物理に触発された玩具モデルを組み合わせることによって,深層学習に実証的なアプローチをとる。
論文 参考訳(メタデータ) (2023-10-24T19:50:41Z) - Graph Tensor Networks: An Intuitive Framework for Designing Large-Scale
Neural Learning Systems on Multiple Domains [23.030263841031633]
本稿では,大規模ニューラルネットワークシステムの設計と実装のためのグラフネットワーク(GTN)フレームワークを紹介する。
提案されたフレームワークは、多くの一般的なアーキテクチャを特別なケースとして含めるのに十分な一般性があり、あらゆるデータドメイン上のデータを扱うのに十分な柔軟性がある。
論文 参考訳(メタデータ) (2023-03-23T13:05:35Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - Design of Convolutional Extreme Learning Machines for Vision-Based
Navigation Around Small Bodies [0.0]
畳み込みニューラルネットワークのようなディープラーニングアーキテクチャは、画像処理タスクにおけるコンピュータビジョンの標準である。
しかし、その正確さは、しばしば、長く計算的に高価なトレーニングのコストがかかる。
畳み込み極端学習マシンと呼ばれる別の手法は、トレーニング時間の劇的な減少と同等に機能する可能性を示している。
論文 参考訳(メタデータ) (2022-10-28T16:24:21Z) - Topology and geometry of data manifold in deep learning [0.0]
本稿では,ニューラルネットワークの学習過程の幾何学的および位相的視点について述べる。
我々は、さまざまなデータセットと畳み込みニューラルネットワークアーキテクチャの異なる構成に関する幅広い実験を提示する。
我々の研究は、コンピュータビジョンの例を通して、説明可能な、解釈可能なAIの重要な分野の発展に寄与している。
論文 参考訳(メタデータ) (2022-04-19T02:57:47Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Variational Structured Attention Networks for Deep Visual Representation
Learning [49.80498066480928]
空間的注意マップとチャネル的注意の両方を原則的に共同学習するための統合的深層フレームワークを提案する。
具体的には,確率的表現学習フレームワークに注目度の推定と相互作用を統合する。
ニューラルネットワーク内で推論ルールを実装し,確率パラメータとcnnフロントエンドパラメータのエンドツーエンド学習を可能にする。
論文 参考訳(メタデータ) (2021-03-05T07:37:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。