論文の概要: Boundary Uncertainty in a Single-Stage Temporal Action Localization
Network
- arxiv url: http://arxiv.org/abs/2008.11170v1
- Date: Tue, 25 Aug 2020 17:04:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 04:11:23.480119
- Title: Boundary Uncertainty in a Single-Stage Temporal Action Localization
Network
- Title(参考訳): 単一段階時間行動定位ネットワークにおける境界不確かさ
- Authors: Ting-Ting Xie, Christos Tzelepis, Ioannis Patras
- Abstract要約: 両方の不確実性モデリング手法により,mAP@tIoU=0.5で1.5%以上の検出性能が向上することを示す。
提案する単純な1段ネットワークは,より複雑な1段ネットワークと2段ネットワークに近接して動作する。
- 参考スコア(独自算出の注目度): 12.364819165688628
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we address the problem of temporal action localization with a
single stage neural network. In the proposed architecture we model the boundary
predictions as uni-variate Gaussian distributions in order to model their
uncertainties, which is the first in this area to the best of our knowledge. We
use two uncertainty-aware boundary regression losses: first, the
Kullback-Leibler divergence between the ground truth location of the boundary
and the Gaussian modeling the prediction of the boundary and second, the
expectation of the $\ell_1$ loss under the same Gaussian. We show that with
both uncertainty modeling approaches improve the detection performance by more
than $1.5\%$ in mAP@tIoU=0.5 and that the proposed simple one-stage network
performs closely to more complex one and two stage networks.
- Abstract(参考訳): 本稿では,1段階のニューラルネットワークによる時間的行動の局所化の問題に対処する。
提案したアーキテクチャでは,境界予測を一変量ガウス分布としてモデル化し,不確実性をモデル化する。
まず、境界の基底的真理位置とガウス的境界の予測をモデル化するガウス型と、同じガウス的条件下での$\ell_1$ の損失を期待するガウス型の2つの不確実性を考慮した境界回帰損失を用いる。
両方の不確実性モデリング手法により,mAP@tIoU=0.5の$1.5\%以上の検出性能が向上し,提案する単純な1段ネットワークが,より複雑な1段ネットワークと2段ネットワークに近接して動作することを示す。
関連論文リスト
- Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - Variational Laplace Autoencoders [53.08170674326728]
変分オートエンコーダは、遅延変数の後部を近似するために、償却推論モデルを用いる。
完全分解ガウス仮定の限定的後部表現性に対処する新しい手法を提案する。
また、深部生成モデルのトレーニングのための変分ラプラスオートエンコーダ(VLAE)という一般的なフレームワークも提示する。
論文 参考訳(メタデータ) (2022-11-30T18:59:27Z) - Phenomenology of Double Descent in Finite-Width Neural Networks [29.119232922018732]
二重降下(double descend)は、モデルが属する体制に依存して行動を記述する。
我々は影響関数を用いて、人口減少とその下限の適切な表現を導出する。
本分析に基づき,損失関数が二重降下に与える影響について検討した。
論文 参考訳(メタデータ) (2022-03-14T17:39:49Z) - The Interplay Between Implicit Bias and Benign Overfitting in Two-Layer
Linear Networks [51.1848572349154]
ノイズの多いデータに完全に適合するニューラルネットワークモデルは、見当たらないテストデータにうまく一般化できる。
我々は,2層線形ニューラルネットワークを2乗損失の勾配流で補間し,余剰リスクを導出する。
論文 参考訳(メタデータ) (2021-08-25T22:01:01Z) - On the Role of Optimization in Double Descent: A Least Squares Study [30.44215064390409]
最小二乗対象の降下勾配解に対して過大なリスクを負うことを示す。
ノイズのない回帰の場合、二重降下は最適化関連量によってのみ説明される。
ニューラルネットワークの予測が保たれているかどうかを実証的に調査する。
論文 参考訳(メタデータ) (2021-07-27T09:13:11Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Quantitative Propagation of Chaos for SGD in Wide Neural Networks [39.35545193410871]
本稿では,SGD(Gradient Descent)の連続時間動作の制限挙動について検討する。
本研究では, この連続時間力学によって定義される粒子系に対して, 異なるシナリオ下での「カオスの伝播」を示す。
最小化問題の暗黙的な正則化版に対応する2つの平均場限界を求める。
論文 参考訳(メタデータ) (2020-07-13T12:55:21Z) - Mean-Field Approximation to Gaussian-Softmax Integral with Application
to Uncertainty Estimation [23.38076756988258]
ディープニューラルネットワークにおける不確実性を定量化するための,新しい単一モデルに基づくアプローチを提案する。
平均場近似式を用いて解析的に難解な積分を計算する。
実験的に,提案手法は最先端の手法と比較して競合的に機能する。
論文 参考訳(メタデータ) (2020-06-13T07:32:38Z) - DeepStrip: High Resolution Boundary Refinement [60.00241966809684]
関心領域をストリップ画像に変換し、ストリップ領域の境界予測を計算することを提案する。
対象境界を検出するために,2つの予測層を持つフレームワークを提案する。
我々は、誤報を減らすために、整合性とC0連続性正規化をネットワークに強制する。
論文 参考訳(メタデータ) (2020-03-25T22:44:48Z) - Being Bayesian, Even Just a Bit, Fixes Overconfidence in ReLU Networks [65.24701908364383]
我々は、ReLUネットワーク上の不確実性に対する十分条件が「少しベイズ校正される」ことを示す。
さらに,これらの知見を,共通深部ReLUネットワークとLaplace近似を用いた各種標準実験により実証的に検証した。
論文 参考訳(メタデータ) (2020-02-24T08:52:06Z) - Fine-grained Uncertainty Modeling in Neural Networks [0.0]
本稿では,ニューラルネットワークにおける分布外点検出のための新しい手法を提案する。
我々の手法は、NNの過度な判断を正し、外れ点を検知し、上位2つの予測の間で重要な点が不確実であるときに「私は知らない」と言うことを学習する。
副作用として, 本手法は, 追加訓練を必要とせず, 敵の攻撃を防ぐのに有効である。
論文 参考訳(メタデータ) (2020-02-11T05:06:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。