論文の概要: Cascade Network with Guided Loss and Hybrid Attention for Two-view
Geometry
- arxiv url: http://arxiv.org/abs/2007.05706v2
- Date: Thu, 16 Jul 2020 03:03:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 13:36:06.060734
- Title: Cascade Network with Guided Loss and Hybrid Attention for Two-view
Geometry
- Title(参考訳): 2次元幾何学のための誘導損失とハイブリッド注意を有するカスケードネットワーク
- Authors: Zhi Chen and Fan Yang and Wenbing Tao
- Abstract要約: 本稿では,損失とFn値の直接負の相関関係を確立するためのガイド付き損失を提案する。
次に,特徴抽出のためのハイブリットアテンションブロックを提案する。
実験により,我々のネットワークは,ベンチマークデータセットの最先端性能を達成することが示された。
- 参考スコア(独自算出の注目度): 32.52184271700281
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we are committed to designing a high-performance network for
two-view geometry. We first propose a Guided Loss and theoretically establish
the direct negative correlation between the loss and Fn-measure by dynamically
adjusting the weights of positive and negative classes during training, so that
the network is always trained towards the direction of increasing Fn-measure.
By this way, the network can maintain the advantage of the cross-entropy loss
while maximizing the Fn-measure. We then propose a hybrid attention block to
extract feature, which integrates the bayesian attentive context normalization
(BACN) and channel-wise attention (CA). BACN can mine the prior information to
better exploit global context and CA can capture complex channel context to
enhance the channel awareness of the network. Finally, based on our Guided Loss
and hybrid attention block, a cascade network is designed to gradually optimize
the result for more superior performance. Experiments have shown that our
network achieves the state-of-the-art performance on benchmark datasets.
- Abstract(参考訳): 本稿では,2次元幾何学のための高性能ネットワークの設計にコミットする。
まず,学習中の正負のクラスと負のクラスの重みを動的に調整することにより,損失とFn測定の直接負の相関関係を理論的に確立し,ネットワークを常にFn測定の増加方向に向けて訓練する。
これにより、ネットワークはFn測定を最大化しながら、クロスエントロピー損失の利点を維持することができる。
次に,ベイズ注意コンテキスト正規化(BACN)とチャネルワイドアテンション(CA)を統合した特徴抽出のためのハイブリッドアテンションブロックを提案する。
bacnは事前情報をマイニングして、グローバルコンテキストをより活用し、caは複雑なチャネルコンテキストをキャプチャして、ネットワークのチャネル意識を高めることができる。
最後に、我々の誘導損失とハイブリッドアテンションブロックに基づいて、カスケードネットワークは、より優れたパフォーマンスのために、徐々に結果を最適化するように設計されています。
実験により,我々のネットワークは,ベンチマークデータセットの最先端性能を達成することが示された。
関連論文リスト
- Fixing the NTK: From Neural Network Linearizations to Exact Convex
Programs [63.768739279562105]
学習目標に依存しない特定のマスクウェイトを選択する場合、このカーネルはトレーニングデータ上のゲートReLUネットワークのNTKと等価であることを示す。
この目標への依存の欠如の結果として、NTKはトレーニングセット上の最適MKLカーネルよりもパフォーマンスが良くない。
論文 参考訳(メタデータ) (2023-09-26T17:42:52Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - Searching for Network Width with Bilaterally Coupled Network [75.43658047510334]
この問題に対処するため、BCNet(Bilaterally Coupled Network)と呼ばれる新しいスーパーネットを導入する。
BCNetでは、各チャネルは高度に訓練され、同じ量のネットワーク幅を担っているため、ネットワーク幅をより正確に評価することができる。
本稿では,Channel-Bench-Macroというマクロ構造に対するオープンソースのワイド・ベンチマークを提案し,ワイド・サーチ・アルゴリズムの比較を行った。
論文 参考訳(メタデータ) (2022-03-25T15:32:46Z) - Image Superresolution using Scale-Recurrent Dense Network [30.75380029218373]
畳み込みニューラルネットワーク(CNN)の設計の最近の進歩は、画像超解像(SR)の性能を大幅に向上させた。
残差ブロック内の一連の密接な接続を含む単位上に構築されたスケールリカレントSRアーキテクチャを提案する(Residual Dense Blocks (RDBs))。
我々のスケールリカレント設計は、現在の最先端のアプローチに比べてパラメトリックに効率的でありながら、より高いスケール要因の競合性能を提供する。
論文 参考訳(メタデータ) (2022-01-28T09:18:43Z) - Graph-based Algorithm Unfolding for Energy-aware Power Allocation in
Wireless Networks [27.600081147252155]
我々は,無線通信網におけるエネルギー効率を最大化する新しいグラフ要約フレームワークを開発した。
無線ネットワークデータのモデルに望ましい特性である置換訓練について述べる。
結果は、異なるネットワークトポロジにまたがる一般化可能性を示している。
論文 参考訳(メタデータ) (2022-01-27T20:23:24Z) - The Principles of Deep Learning Theory [19.33681537640272]
この本は、実践的妥当性の深いニューラルネットワークを理解するための効果的な理論アプローチを開発する。
これらのネットワークがトレーニングから非自明な表現を効果的に学習する方法について説明する。
トレーニングネットワークのアンサンブルの有効モデル複雑性を,奥行き比が支配していることを示す。
論文 参考訳(メタデータ) (2021-06-18T15:00:00Z) - BCNet: Searching for Network Width with Bilaterally Coupled Network [56.14248440683152]
この問題に対処するため、BCNet(Bilaterally Coupled Network)と呼ばれる新しいスーパーネットを導入する。
BCNetでは、各チャネルは高度に訓練され、同じ量のネットワーク幅を担っているため、ネットワーク幅をより正確に評価することができる。
提案手法は,他のベースライン手法と比較して,最先端あるいは競合的な性能を実現する。
論文 参考訳(メタデータ) (2021-05-21T18:54:03Z) - On Topology Optimization and Routing in Integrated Access and Backhaul
Networks: A Genetic Algorithm-based Approach [70.85399600288737]
IABネットワークにおけるトポロジ最適化とルーティングの問題について検討する。
我々は、IABノード配置と非IABバックホールリンク分布の両方に効率的な遺伝的アルゴリズムベースのスキームを開発する。
メッシュベースのIABネットワークを実現する上での課題について論じる。
論文 参考訳(メタデータ) (2021-02-14T21:52:05Z) - Cascade Network with Guided Loss and Hybrid Attention for Finding Good
Correspondences [33.65360396430535]
画像対の対応セットが与えられた場合、バイナリクラス分類器によって正しい対応を見つけるニューラルネットワークを提案する。
対象関数を動的に調整するためのガイダンスとして評価基準(Fn測度)を直接利用できる新しいガイド付き損失を提案する。
次に、ベイズ文脈正規化(BACN)とチャネルワイドアテンション(CA)を統合した特徴抽出のためのハイブリッドアテンションブロックを提案する。
論文 参考訳(メタデータ) (2021-01-31T08:33:20Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - A Mean-field Analysis of Deep ResNet and Beyond: Towards Provable
Optimization Via Overparameterization From Depth [19.866928507243617]
勾配降下(SGD)を伴う深層ニューラルネットワークのトレーニングは、現実世界の風景でのトレーニング損失をゼロにすることが多い。
我々は,アラーがグローバルであるという意味で優れたトレーニングを享受する,無限大深部残差ネットワークの新たな限界を提案する。
論文 参考訳(メタデータ) (2020-03-11T20:14:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。