論文の概要: Learnable Cost Volume Using the Cayley Representation
- arxiv url: http://arxiv.org/abs/2007.11431v1
- Date: Tue, 21 Jul 2020 01:59:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 05:24:35.219362
- Title: Learnable Cost Volume Using the Cayley Representation
- Title(参考訳): Cayley表現を用いた学習可能なコストボリューム
- Authors: Taihong Xiao, Jinwei Yuan, Deqing Sun, Qifei Wang, Xin-Yu Zhang, Kehan
Xu, Ming-Hsuan Yang
- Abstract要約: 光フロー推定モデルのための学習可能なコストボリューム(LCV)を提案する。
提案したLCVは軽量モジュールであり、バニラコストのボリュームを置き換えるために既存のモデルに簡単にプラグインできる。
実験結果から,LCVモジュールは標準ベンチマークにおける最先端モデルの精度を向上するだけでなく,信号の照度変化や雑音,対向的摂動に対する頑健性も向上することが示された。
- 参考スコア(独自算出の注目度): 67.19770048548232
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Cost volume is an essential component of recent deep models for optical flow
estimation and is usually constructed by calculating the inner product between
two feature vectors. However, the standard inner product in the commonly-used
cost volume may limit the representation capacity of flow models because it
neglects the correlation among different channel dimensions and weighs each
dimension equally. To address this issue, we propose a learnable cost volume
(LCV) using an elliptical inner product, which generalizes the standard inner
product by a positive definite kernel matrix. To guarantee its positive
definiteness, we perform spectral decomposition on the kernel matrix and
re-parameterize it via the Cayley representation. The proposed LCV is a
lightweight module and can be easily plugged into existing models to replace
the vanilla cost volume. Experimental results show that the LCV module not only
improves the accuracy of state-of-the-art models on standard benchmarks, but
also promotes their robustness against illumination change, noises, and
adversarial perturbations of the input signals.
- Abstract(参考訳): コスト容積は近年の光学的フロー推定の深部モデルに欠かせない要素であり、通常は2つの特徴ベクトル間の内積を計算することによって構成される。
しかし、一般的に使用されるコストボリュームの標準内積は、異なるチャネル次元間の相関を無視し、各次元を等しく重み付けるため、フローモデルの表現能力を制限する可能性がある。
この問題に対処するために、楕円内積を用いた学習可能なコストボリューム(LCV)を提案し、正定値のカーネル行列により標準内積を一般化する。
正の定性を保証するため、カーネル行列上でスペクトル分解を行い、ケイリー表現を介して再パラメータ化する。
提案したLCVは軽量モジュールであり、バニラコストのボリュームを置き換えるために既存のモデルに簡単にプラグインできる。
実験の結果, lcvモジュールは, 標準ベンチマークにおける最先端モデルの精度を向上させるだけでなく, 照明変化, 雑音, 対向摂動に対するロバスト性も向上することがわかった。
関連論文リスト
- Efficient Variational Quantum Linear Solver for Structured Sparse Matrices [0.6138671548064355]
代替基底を用いることで、行列のスパーシリティと基盤構造をよりうまく活用できることが示される。
我々は、グローバル/ローカルなVQLSコスト関数を計算するために効率的な量子回路を設計するために、ユニタリ補完の概念を用いる。
論文 参考訳(メタデータ) (2024-04-25T19:22:05Z) - Adaptive Computation Modules: Granular Conditional Computation For
Efficient Inference [13.000030080938078]
トランスモデルの計算コストは、低レイテンシや低消費電力のアプリケーションでは非効率である。
本稿では,適応計算モジュール (Adaptive Computation Module, ACM) を提案する。
コンピュータビジョンおよび音声認識におけるトランスフォーマーモデルの評価により,ACMを用いた置換層は,広範囲のユーザ定義予算において,下流の精度を低下させることなく,推論コストを大幅に低減することを示した。
論文 参考訳(メタデータ) (2023-12-15T20:39:43Z) - LQ-LoRA: Low-rank Plus Quantized Matrix Decomposition for Efficient Language Model Finetuning [66.85589263870702]
提案手法では,事前学習した行列を高精度の低ランク成分とメモリ効率の量子化成分に分解するために反復アルゴリズムを用いる。
微調整されたRoBERTaとLLaMA-2の実験は、我々の低ランク+量子化行列分解法(LQ-LoRA)が強いQLoRAおよびGPTQ-LoRAベースラインより優れていることを示した。
論文 参考訳(メタデータ) (2023-11-20T18:57:41Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Sketching as a Tool for Understanding and Accelerating Self-attention
for Long Sequences [52.6022911513076]
トランスフォーマーベースのモデルは、自己アテンションモジュールの二次空間と時間的複雑さのために、長いシーケンスを処理するのに効率的ではない。
我々はLinformerとInformerを提案し、低次元投影と行選択により2次複雑性を線形(モジュラー対数因子)に還元する。
理論的解析に基づいて,Skeinformerを提案することにより,自己注意の促進と,自己注意への行列近似の精度の向上を図ることができる。
論文 参考訳(メタデータ) (2021-12-10T06:58:05Z) - Robust and Provably Monotonic Networks [0.0]
深層学習モデルのリプシッツ定数を制約する新しい手法を提案する。
LHCbのリアルタイムデータ処理システムにおいて, 強靭で解釈可能な判別器を学習するために, アルゴリズムがどのように使われたかを示す。
論文 参考訳(メタデータ) (2021-11-30T19:01:32Z) - Learning Optical Flow from a Few Matches [67.83633948984954]
密な相関体積表現は冗長であり、その中の要素のほんの一部で正確なフロー推定が達成できることを示した。
実験により,高い精度を維持しつつ計算コストとメモリ使用量を大幅に削減できることを示した。
論文 参考訳(メタデータ) (2021-04-05T21:44:00Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。