論文の概要: Noise-Sampling Cross Entropy Loss: Improving Disparity Regression Via
Cost Volume Aware Regularizer
- arxiv url: http://arxiv.org/abs/2005.08806v2
- Date: Thu, 28 May 2020 09:59:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 23:58:37.845427
- Title: Noise-Sampling Cross Entropy Loss: Improving Disparity Regression Via
Cost Volume Aware Regularizer
- Title(参考訳): ノイズサンプリングクロスエントロピー損失:コスト量認識正規化による不均一回帰の改善
- Authors: Yang Chen, Zongqing Lu, Xuechen Zhang, Lei Chen and Qingmin Liao
- Abstract要約: 本稿では,ディープニューラルネットワークが生み出すコストを一様かつコヒーレントに調整するためのノイズサンプリングクロスエントロピー損失関数を提案する。
実験により、提案されたノイズサンプリングクロスエントロピー損失は、ニューラルネットワークがより情報的なコストボリュームを学ぶのに役立つだけでなく、ステレオマッチング性能の向上につながることが検証された。
- 参考スコア(独自算出の注目度): 38.86850327892113
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent end-to-end deep neural networks for disparity regression have achieved
the state-of-the-art performance. However, many well-acknowledged specific
properties of disparity estimation are omitted in these deep learning
algorithms. Especially, matching cost volume, one of the most important
procedure, is treated as a normal intermediate feature for the following
softargmin regression, lacking explicit constraints compared with those
traditional algorithms. In this paper, inspired by previous canonical
definition of cost volume, we propose the noise-sampling cross entropy loss
function to regularize the cost volume produced by deep neural networks to be
unimodal and coherent. Extensive experiments validate that the proposed
noise-sampling cross entropy loss can not only help neural networks learn more
informative cost volume, but also lead to better stereo matching performance
compared with several representative algorithms.
- Abstract(参考訳): 最近のend-to-end deep neural networks for disparity regressionは最先端のパフォーマンスを達成している。
しかしながら、これらの深層学習アルゴリズムでは、不均質な推定の十分な認識特性が省略されている。
特に、最も重要な手順の一つであるコストボリュームのマッチングは、従来のアルゴリズムと比較して明示的な制約を欠いた次のソフトアーグミン回帰の通常の中間機能として扱われる。
本稿では,従来のコスト容積の標準的定義に着想を得て,ディープニューラルネットワークが生成するコスト量を一様かつ整合的に調整するノイズサンプリングクロスエントロピー損失関数を提案する。
広汎な実験により、提案されたノイズサンプリングクロスエントロピー損失は、ニューラルネットワークがより情報的なコストボリュームを学ぶのに役立つだけでなく、いくつかの代表アルゴリズムと比較してステレオマッチング性能が向上することを示した。
関連論文リスト
- YOSO: You-Only-Sample-Once via Compressed Sensing for Graph Neural Network Training [9.02251811867533]
YOSO(You-Only-Sample-Once)は、予測精度を維持しながら効率的なトレーニングを実現するアルゴリズムである。
YOSOは、正規直交基底計算のような従来の圧縮センシング(CS)法で高価な計算を避けるだけでなく、高い確率精度の保持も保証している。
論文 参考訳(メタデータ) (2024-11-08T16:47:51Z) - Towards Resource-Efficient Federated Learning in Industrial IoT for Multivariate Time Series Analysis [50.18156030818883]
異常と欠落したデータは、産業応用における厄介な問題を構成する。
ディープラーニングによる異常検出が重要な方向として現れている。
エッジデバイスで収集されたデータは、ユーザのプライバシを含む。
論文 参考訳(メタデータ) (2024-11-06T15:38:31Z) - Error Feedback under $(L_0,L_1)$-Smoothness: Normalization and Momentum [56.37522020675243]
機械学習の幅広い問題にまたがる正規化誤差フィードバックアルゴリズムに対する収束の最初の証明を提供する。
提案手法では,許容可能なステップサイズが大きくなったため,新しい正規化エラーフィードバックアルゴリズムは,各種タスクにおける非正規化エラーよりも優れていた。
論文 参考訳(メタデータ) (2024-10-22T10:19:27Z) - Ultra Low Complexity Deep Learning Based Noise Suppression [3.4373727078460665]
本稿では,資源制約されたデバイス上でのリアルタイム音声強調において,ディープニューラルネットワークの計算複雑性を低減させる革新的な手法を提案する。
提案アルゴリズムは,従来の最先端手法の3倍から4倍の計算量とメモリ使用量を示す。
論文 参考訳(メタデータ) (2023-12-13T13:34:15Z) - Dense-Sparse Deep Convolutional Neural Networks Training for Image Denoising [0.6215404942415159]
畳み込みニューラルネットワークのような深層学習手法は、画像認知の領域で注目されている。
ディープラーニング畳み込み畳み込みニューラルネットワークは、バッチ正規化と残留学習の正規化メソッドを追加して、多くのフィードフォワード畳み込み層を使用して、トレーニングを高速化し、denoisingパフォーマンスを大幅に改善する。
本稿では,高密度スパース・デンス・ネットワークのトレーニング手法を深層化畳み込みニューラルネットワークに適用することにより,学習可能なパラメータを著しく削減できることを示す。
論文 参考訳(メタデータ) (2021-07-10T15:14:19Z) - Quantized Proximal Averaging Network for Analysis Sparse Coding [23.080395291046408]
反復アルゴリズムをトレーニング可能なネットワークに展開し,量子化前にスパーシティの学習を容易にする。
圧縮画像回復と磁気共鳴画像再構成への応用を実証する。
論文 参考訳(メタデータ) (2021-05-13T12:05:35Z) - Activation Relaxation: A Local Dynamical Approximation to
Backpropagation in the Brain [62.997667081978825]
活性化緩和(AR)は、バックプロパゲーション勾配を力学系の平衡点として構成することで動機付けられる。
我々のアルゴリズムは、正しいバックプロパゲーション勾配に迅速かつ堅牢に収束し、単一のタイプの計算単位しか必要とせず、任意の計算グラフで操作できる。
論文 参考訳(メタデータ) (2020-09-11T11:56:34Z) - Robust Processing-In-Memory Neural Networks via Noise-Aware
Normalization [26.270754571140735]
PIM加速器は、しばしば物理的成分の固有のノイズに悩まされる。
雑音設定に対してロバストなニューラルネットワーク性能を実現するためのノイズ非依存手法を提案する。
論文 参考訳(メタデータ) (2020-07-07T06:51:28Z) - Beyond Dropout: Feature Map Distortion to Regularize Deep Neural
Networks [107.77595511218429]
本稿では,ディープニューラルネットワークの中間層に関連する実験的なRademacher複雑性について検討する。
上記の問題に対処するための特徴歪み法(Disout)を提案する。
より高い試験性能を有するディープニューラルネットワークを作製するための特徴写像歪みの優位性を解析し、実証した。
論文 参考訳(メタデータ) (2020-02-23T13:59:13Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。