論文の概要: Regression Networks For Calculating Englacial Layer Thickness
- arxiv url: http://arxiv.org/abs/2104.04654v1
- Date: Sat, 10 Apr 2021 00:31:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 13:59:45.687655
- Title: Regression Networks For Calculating Englacial Layer Thickness
- Title(参考訳): エンラクシアル層厚計算のための回帰ネットワーク
- Authors: Debvrat Varshney, Maryam Rahnemoonfar, Masoud Yari, and John Paden
- Abstract要約: 我々は複数の出力ノードを持つ畳み込みニューラルネットワークを用いて、Snow Radar画像の内部氷層厚の回帰と学習を行う。
ResNet50の残差接続により、テストセット上で平均1.251ピクセルの絶対誤差を達成することができる。
- 参考スコア(独自算出の注目度): 1.0499611180329802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ice thickness estimation is an important aspect of ice sheet studies. In this
work, we use convolutional neural networks with multiple output nodes to
regress and learn the thickness of internal ice layers in Snow Radar images
collected in northwest Greenland. We experiment with some state-of-the-art
networks and find that with the residual connections of ResNet50, we could
achieve a mean absolute error of 1.251 pixels over the test set. Such
regression-based networks can further be improved by embedding domain knowledge
and radar information in the neural network in order to reduce the requirement
of manual annotations.
- Abstract(参考訳): 氷厚推定は氷床研究の重要な側面である。
本研究では、複数の出力ノードを持つ畳み込みニューラルネットワークを用いて、グリーンランド北西部で収集されたSnow Radar画像の内部氷層厚の回帰と学習を行う。
ResNet50の残差接続により、テストセット上で平均1.251ピクセルの絶対誤差を実現することができる。
このような回帰ベースのネットワークは、手動アノテーションの要求を減らすために、ドメイン知識とレーダ情報をニューラルネットワークに埋め込むことにより、さらに改善することができる。
関連論文リスト
- Multi-branch Spatio-Temporal Graph Neural Network For Efficient Ice Layer Thickness Prediction [0.7673339435080445]
学習にはGraphSSフレームワークと時間的変化を捉えるための時間的畳み込み操作を用いたマルチブランチ・テンポラルグラフニューラルネットワークを開発した。
提案したマルチブランチネットワークは、現在の融合時間グラフニューラルネットワークを精度と効率の両方で一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-06T16:59:51Z) - Opening the Black Box: predicting the trainability of deep neural networks with reconstruction entropy [0.0]
本稿では,ディープフィードフォワードニューラルネットワークのパラメータ空間におけるトレーニング可能な状態を予測する手法を提案する。
MNISTとCIFAR10の両方のデータセットに対して、トレーニングの1つのエポックが、ディープフィードフォワードネットワークのトレーニング可能性を予測するのに十分であることを示す。
論文 参考訳(メタデータ) (2024-06-13T18:00:05Z) - Fixing the NTK: From Neural Network Linearizations to Exact Convex
Programs [63.768739279562105]
学習目標に依存しない特定のマスクウェイトを選択する場合、このカーネルはトレーニングデータ上のゲートReLUネットワークのNTKと等価であることを示す。
この目標への依存の欠如の結果として、NTKはトレーニングセット上の最適MKLカーネルよりもパフォーマンスが良くない。
論文 参考訳(メタデータ) (2023-09-26T17:42:52Z) - A Dimensionality Reduction Approach for Convolutional Neural Networks [0.0]
本稿では,上記の次元削減手法と入出力マッピングを組み合わせることで,事前学習ネットワークの層数を削減できる汎用手法を提案する。
本実験により, 従来の畳み込みニューラルネットワークと同様の精度を達成でき, メモリ割り当てを抑えることができることがわかった。
論文 参考訳(メタデータ) (2021-10-18T10:31:12Z) - Backward Gradient Normalization in Deep Neural Networks [68.8204255655161]
ニューラルネットワークトレーニングにおける勾配正規化のための新しい手法を提案する。
勾配は、ネットワークアーキテクチャ内の特定の点で導入された正規化レイヤを使用して、後方通過中に再スケールされる。
非常に深いニューラルネットワークを用いたテストの結果、新しい手法が勾配ノルムを効果的に制御できることが示されている。
論文 参考訳(メタデータ) (2021-06-17T13:24:43Z) - Adder Neural Networks [75.54239599016535]
我々は、ディープニューラルネットワークにおける大規模な乗算を交換するために、加算器ネットワーク(AdderNets)を提案する。
AdderNetsでは、フィルタと入力特徴の間の$ell_p$-norm距離を出力応答として取ります。
提案したAdderNetsは,ImageNetデータセット上でResNet-50を用いて,75.7%のTop-1精度92.3%のTop-5精度を達成可能であることを示す。
論文 参考訳(メタデータ) (2021-05-29T04:02:51Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - Topological obstructions in neural networks learning [67.8848058842671]
損失勾配関数フローのグローバル特性について検討する。
損失関数とそのモースコンプレックスの位相データ解析を用いて,損失面の大域的特性と勾配軌道に沿った局所的挙動を関連付ける。
論文 参考訳(メタデータ) (2020-12-31T18:53:25Z) - Lattice Fusion Networks for Image Denoising [4.010371060637209]
本稿では,畳み込みニューラルネットワークにおける特徴融合手法を提案する。
これらの手法のいくつかと提案したネットワークは、DAG(Directed Acyclic Graph)ネットワークの一種と見なすことができる。
提案したネットワークは、学習可能なパラメータをはるかに少なくして、より良い結果を得ることができる。
論文 参考訳(メタデータ) (2020-11-28T18:57:54Z) - Compressive sensing with un-trained neural networks: Gradient descent
finds the smoothest approximation [60.80172153614544]
訓練されていない畳み込みニューラルネットワークは、画像の回復と復元に非常に成功したツールとして登場した。
トレーニングされていない畳み込みニューラルネットワークは、ほぼ最小限のランダムな測定値から、十分に構造化された信号や画像を概ね再構成可能であることを示す。
論文 参考訳(メタデータ) (2020-05-07T15:57:25Z) - Lifted Regression/Reconstruction Networks [17.89437720094451]
本稿では,リフレクション/リコンストラクションネットワーク(LRRN)を提案する。
LRRNは、昇降ニューラルネットワークと出力層に対する保証されたリプシッツ連続性特性を結合する。
教師なし・教師なし学習への応用を解析・数値的に実証する。
論文 参考訳(メタデータ) (2020-05-07T13:24:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。