論文の概要: Cascade Network with Guided Loss and Hybrid Attention for Finding Good
Correspondences
- arxiv url: http://arxiv.org/abs/2102.00411v1
- Date: Sun, 31 Jan 2021 08:33:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 16:33:00.969769
- Title: Cascade Network with Guided Loss and Hybrid Attention for Finding Good
Correspondences
- Title(参考訳): 良質な対応を見つけるための誘導損失とハイブリッド注意を用いたカスケードネットワーク
- Authors: Zhi Chen, Fan Yang, Wenbing Tao
- Abstract要約: 画像対の対応セットが与えられた場合、バイナリクラス分類器によって正しい対応を見つけるニューラルネットワークを提案する。
対象関数を動的に調整するためのガイダンスとして評価基準(Fn測度)を直接利用できる新しいガイド付き損失を提案する。
次に、ベイズ文脈正規化(BACN)とチャネルワイドアテンション(CA)を統合した特徴抽出のためのハイブリッドアテンションブロックを提案する。
- 参考スコア(独自算出の注目度): 33.65360396430535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Finding good correspondences is a critical prerequisite in many feature based
tasks. Given a putative correspondence set of an image pair, we propose a
neural network which finds correct correspondences by a binary-class classifier
and estimates relative pose through classified correspondences. First, we
analyze that due to the imbalance in the number of correct and wrong
correspondences, the loss function has a great impact on the classification
results. Thus, we propose a new Guided Loss that can directly use evaluation
criterion (Fn-measure) as guidance to dynamically adjust the objective function
during training. We theoretically prove that the perfect negative correlation
between the Guided Loss and Fn-measure, so that the network is always trained
towards the direction of increasing Fn-measure to maximize it. We then propose
a hybrid attention block to extract feature, which integrates the Bayesian
attentive context normalization (BACN) and channel-wise attention (CA). BACN
can mine the prior information to better exploit global context and CA can
capture complex channel context to enhance the channel awareness of the
network. Finally, based on our Guided Loss and hybrid attention block, a
cascade network is designed to gradually optimize the result for more superior
performance. Experiments have shown that our network achieves the
state-of-the-art performance on benchmark datasets. Our code will be available
in https://github.com/wenbingtao/GLHA.
- Abstract(参考訳): 優れた対応を見つけることは、多くの機能ベースのタスクにおいて重要な前提条件です。
画像対の対応集合が与えられたとき、二分クラス分類器による正しい対応を見つけ、分類された対応によって相対的なポーズを推定するニューラルネットワークを提案する。
まず、正しい対応の数と間違った対応の数の不均衡のために、損失関数は分類結果に大きな影響を及ぼすことを分析します。
そこで本研究では,評価基準 (fn-measure) を直接使用し,訓練中の目標関数を動的に調整できる新しい誘導損失を提案する。
我々は、ガイド損失とFn測定の間の完璧な負の相関を理論的に証明し、ネットワークはそれを最大化するためにFn測定を増やす方向に向かって常に訓練されている。
次に,ベイズ注意コンテキスト正規化(BACN)とチャネルワイドアテンション(CA)を統合した特徴抽出のためのハイブリットアテンションブロックを提案する。
bacnは事前情報をマイニングして、グローバルコンテキストをより活用し、caは複雑なチャネルコンテキストをキャプチャして、ネットワークのチャネル意識を高めることができる。
最後に、ガイドされた損失とハイブリッドの注意ブロックに基づいて、カスケードネットワークは、より優れたパフォーマンスのために結果を徐々に最適化するように設計されています。
実験により,我々のネットワークは,ベンチマークデータセットの最先端性能を達成することが示された。
私たちのコードはhttps://github.com/wenbingtao/glhaで利用可能です。
関連論文リスト
- Universal Consistency of Wide and Deep ReLU Neural Networks and Minimax
Optimal Convergence Rates for Kolmogorov-Donoho Optimal Function Classes [7.433327915285969]
我々は,ロジスティック損失に基づいて学習した広帯域および深部ReLUニューラルネットワーク分類器の普遍的整合性を証明する。
また、ニューラルネットワークに基づく分類器が最小収束率を達成できる確率尺度のクラスに対して十分な条件を与える。
論文 参考訳(メタデータ) (2024-01-08T23:54:46Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Learning Feature Matching via Matchable Keypoint-Assisted Graph Neural
Network [52.29330138835208]
画像のペア間の局所的な特徴の正確なマッチングは、コンピュータビジョンの課題である。
従来の研究では、注意に基づくグラフニューラルネットワーク(GNN)と、画像内のキーポイントに完全に接続されたグラフを使用するのが一般的だった。
本稿では,非繰り返しキーポイントをバイパスし,マッチング可能なキーポイントを利用してメッセージパッシングを誘導する,疎注意に基づくGNNアーキテクチャであるMaKeGNNを提案する。
論文 参考訳(メタデータ) (2023-07-04T02:50:44Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Contrastive variational information bottleneck for aspect-based
sentiment analysis [36.83876224466177]
CVIB(Contrastive Variational Information Bottleneck)フレームワークを用いて,アスペクトベース感情分析(ABSA)の素早い相関性を低減することを提案する。
提案するCVIBフレームワークは,元のネットワークと自走ネットワークで構成され,これら2つのネットワークは,コントラスト学習によって同時に最適化される。
提案手法は, 全体的な予測性能, 堅牢性, 一般化の点で, 強力な競合相手よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-03-06T02:52:37Z) - Bayesian Layer Graph Convolutioanl Network for Hyperspetral Image
Classification [24.91896527342631]
グラフ畳み込みネットワーク(GCN)ベースのモデルは、素晴らしいパフォーマンスを示している。
点推定に基づくディープラーニングフレームワークは、一般化が低く、分類結果の不確実性を定量化できない。
本稿では,点推定に基づくニューラルネットワークへの挿入層としてベイズ的アイデアを用いたベイズ的層を提案する。
HSIデータセットのサンプル不均衡問題を解決するためにGAN(Generative Adversarial Network)が構築されている。
論文 参考訳(メタデータ) (2022-11-14T12:56:56Z) - Boundary Attributions Provide Normal (Vector) Explanations [27.20904776964045]
境界属性(BA)はこの問題に対処するための新しい説明法である。
BAは、ターゲット入力に対する局所的な決定境界の正規ベクトルを計算する。
ランダム化された平滑化ネットワークまたは堅牢に訓練されたネットワークのBAは、標準ネットワークよりも非境界アトリビューション方法にはるかに近い。
論文 参考訳(メタデータ) (2021-03-20T22:36:39Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Cascade Network with Guided Loss and Hybrid Attention for Two-view
Geometry [32.52184271700281]
本稿では,損失とFn値の直接負の相関関係を確立するためのガイド付き損失を提案する。
次に,特徴抽出のためのハイブリットアテンションブロックを提案する。
実験により,我々のネットワークは,ベンチマークデータセットの最先端性能を達成することが示された。
論文 参考訳(メタデータ) (2020-07-11T07:44:04Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。