論文の概要: Temporal Action Localization with Variance-Aware Networks
- arxiv url: http://arxiv.org/abs/2008.11254v1
- Date: Tue, 25 Aug 2020 20:12:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 04:09:44.855901
- Title: Temporal Action Localization with Variance-Aware Networks
- Title(参考訳): 変数認識ネットワークを用いた時間的行動定位
- Authors: Ting-Ting Xie, Christos Tzelepis, Ioannis Patras
- Abstract要約: 本研究は,VAN(Variance-Aware Networks)を用いた時間的行動ローカライゼーションの問題に対処する。
VANpはネットワーク全体の平均と分散を伝搬し、2次統計値で出力を提供するネットワークである。
その結果、VANpは、他の2段階ネットワークのほぼ全ての精度を、追加のパラメータを含まないまま上回っていることがわかった。
- 参考スコア(独自算出の注目度): 12.364819165688628
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work addresses the problem of temporal action localization with
Variance-Aware Networks (VAN), i.e., DNNs that use second-order statistics in
the input and/or the output of regression tasks. We first propose a network
(VANp) that when presented with the second-order statistics of the input, i.e.,
each sample has a mean and a variance, it propagates the mean and the variance
throughout the network to deliver outputs with second order statistics. In this
framework, both the input and the output could be interpreted as Gaussians. To
do so, we derive differentiable analytic solutions, or reasonable
approximations, to propagate across commonly used NN layers. To train the
network, we define a differentiable loss based on the KL-divergence between the
predicted Gaussian and a Gaussian around the ground truth action borders, and
use standard back-propagation. Importantly, the variances propagation in VANp
does not require any additional parameters, and during testing, does not
require any additional computations either. In action localization, the means
and the variances of the input are computed at pooling operations, that are
typically used to bring arbitrarily long videos to a vector with fixed
dimensions. Second, we propose two alternative formulations that augment the
first (respectively, the last) layer of a regression network with additional
parameters so as to take in the input (respectively, predict in the output)
both means and variances. Results in the action localization problem show that
the incorporation of second order statistics improves over the baseline
network, and that VANp surpasses the accuracy of virtually all other two-stage
networks without involving any additional parameters.
- Abstract(参考訳): この研究は、変数認識ネットワーク(VAN)、すなわち、入力および/または回帰タスクの出力に2次統計を使用するDNNによる時間的行動ローカライゼーションの問題に対処する。
まず,入力の2次統計量を示すネットワーク(VANp)を提案する。つまり,各サンプルの平均値と分散値を持ち,ネットワーク全体の平均値と分散値を伝搬し,2次統計量で出力を出力する。
このフレームワークでは、入力と出力の両方をガウス型と解釈できる。
そのため、よく使われるnn層をまたいで伝播する微分可能な解析解(あるいは合理的近似)を導出する。
ネットワークをトレーニングするために、予測されたガウスとガウスの接地行動境界付近でのKL偏差に基づいて微分可能な損失を定義し、標準バックプロパゲーションを使用する。
重要なことは、VANpの分散伝播には追加のパラメータは不要であり、テスト中は追加の計算も不要である。
アクションローカライズでは、入力の手段と分散はプール操作で計算され、通常は固定次元のベクトルに任意に長いビデオをもたらすために使用される。
第二に,重回帰ネットワークの第1層(主観的,最後の)層を,平均と分散の両方の入力(主観的,出力内で予測)を取り込むために追加パラメータで補強する2つの代替定式化を提案する。
その結果,第2次統計の組込みはベースラインネットワーク上で改善し,vanpは追加パラメータを伴わずにほぼすべての2段階ネットワークの精度を上回っていることがわかった。
関連論文リスト
- Latent Schrodinger Bridge: Prompting Latent Diffusion for Fast Unpaired Image-to-Image Translation [58.19676004192321]
ノイズからの画像生成とデータからの逆変換の両方を可能にする拡散モデル (DM) は、強力な未ペア画像対イメージ(I2I)翻訳アルゴリズムにインスピレーションを与えている。
我々は、最小輸送コストの分布間の微分方程式(SDE)であるSchrodinger Bridges (SBs) を用いてこの問題に取り組む。
この観測に触発されて,SB ODE を予め訓練した安定拡散により近似する潜在シュロディンガー橋 (LSB) を提案する。
提案アルゴリズムは,従来のDMのコストをわずかに抑えながら,教師なし環境での競合的I2I翻訳を実現していることを示す。
論文 参考訳(メタデータ) (2024-11-22T11:24:14Z) - Flexible Heteroscedastic Count Regression with Deep Double Poisson Networks [4.58556584533865]
本稿ではDDPN(Deep Double Poisson Network)を提案する。
DDPNは既存の離散モデルを大幅に上回っている。
これは様々なカウント回帰データセットに適用できる。
論文 参考訳(メタデータ) (2024-06-13T16:02:03Z) - Sparsifying Bayesian neural networks with latent binary variables and
normalizing flows [10.865434331546126]
潜伏二元系ベイズニューラルネットワーク(LBBNN)の2つの拡張について検討する。
まず、隠れたユニットを直接サンプリングするためにLRT(Local Reparametrization trick)を用いることで、より計算効率の良いアルゴリズムが得られる。
さらに, LBBNNパラメータの変動後分布の正規化フローを用いて, 平均体ガウス分布よりも柔軟な変動後分布を学習する。
論文 参考訳(メタデータ) (2023-05-05T09:40:28Z) - Optimal Training of Mean Variance Estimation Neural Networks [1.4610038284393165]
本稿では,平均変数推定ネットワーク(MVEネットワーク)の最適実装に焦点をあてる(Nix and Weigend, 1994)。
MVEネットワークは、平均関数と分散関数を持つ正規分布からデータを生成すると仮定する。
本稿では,MVEネットワークの新たな改良点として,平均値と分散推定値を分離した正規化を提案する。
論文 参考訳(メタデータ) (2023-02-17T13:44:47Z) - Generative Adversarial Networks to infer velocity components in rotating
turbulent flows [2.0873604996221946]
CNNとGANは、ポイントワイドと統計的再構成の両方でEPODを常に上回ります。
解析は、予測と地上真実の間の空間距離$L$の標準検証ツールの両方を用いて行われる。
論文 参考訳(メタデータ) (2023-01-18T13:59:01Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - Robust Estimation for Nonparametric Families via Generative Adversarial
Networks [92.64483100338724]
我々は,高次元ロバストな統計問題を解くためにGAN(Generative Adversarial Networks)を設計するためのフレームワークを提供する。
我々の研究は、これらをロバスト平均推定、第二モーメント推定、ロバスト線形回帰に拡張する。
技術面では、提案したGAN損失は、スムーズで一般化されたコルモゴロフ-スミルノフ距離と見なすことができる。
論文 参考訳(メタデータ) (2022-02-02T20:11:33Z) - Mean-field Analysis of Piecewise Linear Solutions for Wide ReLU Networks [83.58049517083138]
勾配勾配勾配を用いた2層ReLUネットワークについて検討する。
SGDは単純な解に偏りがあることが示される。
また,データポイントと異なる場所で結び目が発生するという経験的証拠も提供する。
論文 参考訳(メタデータ) (2021-11-03T15:14:20Z) - Predicting Deep Neural Network Generalization with Perturbation Response
Curves [58.8755389068888]
トレーニングネットワークの一般化能力を評価するための新しいフレームワークを提案する。
具体的には,一般化ギャップを正確に予測するための2つの新しい尺度を提案する。
PGDL(Predicting Generalization in Deep Learning)のNeurIPS 2020コンペティションにおけるタスクの大部分について、現在の最先端の指標よりも優れた予測スコアを得る。
論文 参考訳(メタデータ) (2021-06-09T01:37:36Z) - Empirical Strategy for Stretching Probability Distribution in
Neural-network-based Regression [5.35308390309106]
ニューラルネットワーク下での回帰解析では、予測性能は層間の適切な重み決定に依存する。
両分布の重み付け面積を増大させる新しい損失関数として重み付き経験的ストレッチ(WES)を提案する。
極端な領域に対するRMSEの改良結果は、非線形複雑系における異常事象の予測に利用されることが期待されている。
論文 参考訳(メタデータ) (2020-09-08T06:08:14Z) - Network Moments: Extensions and Sparse-Smooth Attacks [59.24080620535988]
ガウス入力を受ける小片方向線形(PL)ネットワーク(Affine,ReLU,Affine)の第1モーメントと第2モーメントの正確な解析式を導出する。
本研究では,新しい分散式を効率的に近似し,より厳密な分散推定を行うことを示す。
論文 参考訳(メタデータ) (2020-06-21T11:36:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。