論文の概要: DISK: Learning local features with policy gradient
- arxiv url: http://arxiv.org/abs/2006.13566v2
- Date: Tue, 27 Oct 2020 10:32:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 09:42:23.443610
- Title: DISK: Learning local features with policy gradient
- Title(参考訳): DISK: 政策勾配による局所的特徴の学習
- Authors: Micha{\l} J. Tyszkiewicz, Pascal Fua, Eduard Trulls
- Abstract要約: 局所的な特徴フレームワークは、スパースキーポイントの選択とマッチングに固有の離散性のため、エンドツーエンドで学ぶのは難しい。
DISK(DIScrete Keypoints)は,強化学習(Reinforcement Learning, RL)の原則を活用することで,これらの障害を克服する新しい手法である。
私たちの単純で表現力に富んだ確率的モデルは、トレーニングと推論体制を密に保ちながら、スクラッチから確実にトレーニングできる十分な収束特性を維持します。
- 参考スコア(独自算出の注目度): 63.12124363163665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Local feature frameworks are difficult to learn in an end-to-end fashion, due
to the discreteness inherent to the selection and matching of sparse keypoints.
We introduce DISK (DIScrete Keypoints), a novel method that overcomes these
obstacles by leveraging principles from Reinforcement Learning (RL), optimizing
end-to-end for a high number of correct feature matches. Our simple yet
expressive probabilistic model lets us keep the training and inference regimes
close, while maintaining good enough convergence properties to reliably train
from scratch. Our features can be extracted very densely while remaining
discriminative, challenging commonly held assumptions about what constitutes a
good keypoint, as showcased in Fig. 1, and deliver state-of-the-art results on
three public benchmarks.
- Abstract(参考訳): 局所的な特徴フレームワークは、スパースキーポイントの選択とマッチングに固有の離散性のため、エンドツーエンドで学ぶのは難しい。
DISK(DIScrete Keypoints)は,強化学習(Reinforcement Learning, RL)の原理を活用し,多数の特徴マッチングをエンドツーエンドに最適化することで,これらの障害を克服する新しい手法である。
私たちの単純で表現力に富んだ確率的モデルは、トレーニングと推論体制を密に保ちながら、スクラッチから確実にトレーニングできる十分な収束特性を維持します。
我々の特徴は、差別的でありながら非常に密集的に抽出することができ、図1に示すように、良いキーポイントを構成するものに関する一般的な仮定に挑戦し、3つの公開ベンチマークで最先端の結果を提供する。
関連論文リスト
- ICL-TSVD: Bridging Theory and Practice in Continual Learning with Pre-trained Models [103.45785408116146]
連続学習(CL)は、連続的に提示される複数のタスクを解決できるモデルを訓練することを目的としている。
最近のCLアプローチは、ダウンストリームタスクをうまく一般化する大規模な事前学習モデルを活用することで、強力なパフォーマンスを実現している。
しかし、これらの手法には理論的保証がなく、予期せぬ失敗をしがちである。
私たちは、経験的に強いアプローチを原則化されたフレームワークに統合することで、このギャップを埋めます。
論文 参考訳(メタデータ) (2024-10-01T12:58:37Z) - Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - Beyond Prototypes: Semantic Anchor Regularization for Better
Representation Learning [82.29761875805369]
表現学習の最終的な目標の1つは、クラス内のコンパクトさとクラス間の十分な分離性を達成することである。
本稿では,機能セントロイドとして機能する事前定義されたクラスアンカーを用いて,特徴学習を一方向ガイドする新しい視点を提案する。
提案したSemantic Anchor Regularization (SAR) は,既存モデルのプラグアンドプレイ方式で使用することができる。
論文 参考訳(メタデータ) (2023-12-19T05:52:38Z) - Neural Collapse Terminus: A Unified Solution for Class Incremental
Learning and Its Variants [166.916517335816]
本稿では,3つの課題における不整合ジレンマに対する統一解を提案する。
ラベル空間全体の最大等角的クラス間分離を有する固定構造である神経崩壊終端を提案する。
本手法は,データ不均衡やデータ不足にかかわらず,神経崩壊最適度を漸進的に保持する。
論文 参考訳(メタデータ) (2023-08-03T13:09:59Z) - Learning Common Rationale to Improve Self-Supervised Representation for
Fine-Grained Visual Recognition Problems [61.11799513362704]
我々は、インスタンスやクラスでよく見られる差別的手がかりを識別するための、追加のスクリーニングメカニズムの学習を提案する。
SSL目標から誘導されるGradCAMを単純に利用することで、共通な有理性検出器が学習可能であることを示す。
論文 参考訳(メタデータ) (2023-03-03T02:07:40Z) - SRFeat: Learning Locally Accurate and Globally Consistent Non-Rigid
Shape Correspondence [36.44119664239748]
比較学習の局所的精度と幾何学的アプローチのグローバルな整合性を組み合わせた学習ベースのフレームワークを提案する。
本フレームワークは汎用的であり,3次元領域と2次元領域の両方における局所的特徴学習に適用可能である。
論文 参考訳(メタデータ) (2022-09-16T09:11:12Z) - PointDSC: Robust Point Cloud Registration using Deep Spatial Consistency [38.93610732090426]
本稿では,空間的整合性を明確に組み込んだ新しいディープニューラルネットワークであるPointDSCを提案する。
本手法は,いくつかの実世界のデータセットにおいて,最先端の手作りおよび学習に基づく異常者拒絶アプローチを上回っている。
論文 参考訳(メタデータ) (2021-03-09T14:56:08Z) - Learning Robust Representation for Clustering through Locality
Preserving Variational Discriminative Network [16.259673823482665]
Variational Deep Embeddingは、さまざまなクラスタリングタスクで大きな成功を収めます。
VaDEは,1)入力ノイズに弱い,2)隣接するデータポイント間の局所性情報を無視する,という2つの問題に悩まされている。
強固な埋め込み判別器と局所構造制約によりvadeを改善する共同学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-25T02:31:55Z) - Better scalability under potentially heavy-tailed feedback [6.903929927172917]
損失や勾配の重み付けが可能である場合に使用できる,ロバスト勾配勾配降下法(RGD)のスケーラブルな代替手法について検討する。
我々は、並列に実行できる安価なサブプロセスの集合に基づいて、強力な候補を堅牢に選択することに集中する。
正確な選択プロセスは、基礎となる目的の凸性に依存するが、すべての場合において、我々の選択手法は弱い学習者の信頼を高める頑健な方法である。
論文 参考訳(メタデータ) (2020-12-14T08:56:04Z) - PointNetLK Revisited [37.594591809918185]
我々は,PointNetLKが学習フレームワーク固有の忠実さの利点を享受しながら,顕著な一般化特性を示すことを示す。
提案手法は, ミスマッチした条件下での最先端だけでなく, 現行の学習手法と競合する結果も生み出す。
論文 参考訳(メタデータ) (2020-08-21T15:09:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。