論文の概要: Cherry-Picking Gradients: Learning Low-Rank Embeddings of Visual Data
via Differentiable Cross-Approximation
- arxiv url: http://arxiv.org/abs/2105.14250v1
- Date: Sat, 29 May 2021 08:39:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-05 19:05:26.391601
- Title: Cherry-Picking Gradients: Learning Low-Rank Embeddings of Visual Data
via Differentiable Cross-Approximation
- Title(参考訳): チェリーピッキング勾配:微分クロス近似による視覚データの低ランク埋め込み学習
- Authors: Mikhail Usvyatsov, Anastasia Makarova, Rafael Ballester-Ripoll, Maxim
Rakhuba, Andreas Krause, Konrad Schindler
- Abstract要約: 本稿では,大規模な視覚データテンソルの処理を行うエンドツーエンドのトレーニング可能なフレームワークを提案する。
提案手法は大規模多次元グリッドデータや,大規模受容領域上のコンテキストを必要とするタスクに特に有用である。
- 参考スコア(独自算出の注目度): 53.95297550117153
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose an end-to-end trainable framework that processes large-scale
visual data tensors by looking \emph{at a fraction of their entries only}. Our
method combines a neural network encoder with a \emph{tensor train
decomposition} to learn a low-rank latent encoding, coupled with
cross-approximation (CA) to learn the representation through a subset of the
original samples. CA is an adaptive sampling algorithm that is native to tensor
decompositions and avoids working with the full high-resolution data
explicitly. Instead, it actively selects local representative samples that we
fetch out-of-core and on-demand. The required number of samples grows only
logarithmically with the size of the input. Our implicit representation of the
tensor in the network enables processing large grids that could not be
otherwise tractable in their uncompressed form. The proposed approach is
particularly useful for large-scale multidimensional grid data (e.g., 3D
tomography), and for tasks that require context over a large receptive field
(e.g., predicting the medical condition of entire organs). The code will be
available at https://github.com/aelphy/c-pic
- Abstract(参考訳): 本稿では,大規模な視覚データテンソルを処理するエンドツーエンドのトレーニング可能なフレームワークを提案する。
提案手法では,ニューラルネットワークエンコーダと \emph{tensor train decomposition} を組み合わせて低ランク遅延符号化を学習し,クロス近似(CA)と組み合わせて元のサンプルのサブセットを通して表現を学習する。
CAはテンソル分解に固有の適応サンプリングアルゴリズムであり、全高解像度データの処理を明示的に避ける。
代わりに、コアとオンデマンドから取得したローカル代表サンプルを積極的に選択します。
必要なサンプル数は、入力のサイズに応じて対数的にのみ増加する。
ネットワーク内のテンソルを暗黙的に表現することで、圧縮されていない形で引きずり込めない大きなグリッドを処理できます。
提案手法は,大規模多次元グリッドデータ(3次元トモグラフィなど)や,広い受容領域(臓器全体の医療状態の予測など)の文脈を必要とするタスクにおいて特に有用である。
コードはhttps://github.com/aelphy/c-picで入手できる。
関連論文リスト
- Sampling weights of deep neural networks [1.2370077627846041]
完全に接続されたニューラルネットワークの重みとバイアスに対して,効率的なサンプリングアルゴリズムと組み合わせた確率分布を導入する。
教師付き学習環境では、内部ネットワークパラメータの反復最適化や勾配計算は不要である。
サンプルネットワークが普遍近似器であることを証明する。
論文 参考訳(メタデータ) (2023-06-29T10:13:36Z) - A Self-Encoder for Learning Nearest Neighbors [5.297261090056809]
自己エンコーダは、データサンプルを埋め込み空間に分散して、互いに線形に分離できるように学習する。
通常の隣人とは異なり、このデータの符号化による予測は、あらゆる機能のスケーリングに不変である。
論文 参考訳(メタデータ) (2023-06-25T14:30:31Z) - Sampling Enclosing Subgraphs for Link Prediction [2.1270496914042996]
リンク予測はグラフ構造化データ計算の基本的な問題である。
本稿では,スパース囲み部分グラフを用いて予測を行うScaLedというスケーラブルな解を提案する。
より小さなサンプルサブグラフを活用することで、ScaLedは高い精度を維持しながらオーバーヘッドをはるかに少なく大きなグラフにスケールすることができる。
論文 参考訳(メタデータ) (2022-06-23T22:48:44Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - OSLNet: Deep Small-Sample Classification with an Orthogonal Softmax
Layer [77.90012156266324]
本稿では,ニューラルネットワークのサブスペースを見つけることを目的としている。
そこで本研究では,Orthogonal Softmax Layer (OSL) を提案する。
実験結果から,提案OSLは4つの小サンプルベンチマークデータセットとの比較に用いた手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-04-20T02:41:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。