論文の概要: Same Features, Different Day: Weakly Supervised Feature Learning for
Seasonal Invariance
- arxiv url: http://arxiv.org/abs/2003.13431v1
- Date: Mon, 30 Mar 2020 12:56:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 08:04:40.570471
- Title: Same Features, Different Day: Weakly Supervised Feature Learning for
Seasonal Invariance
- Title(参考訳): 同じ特徴、異なる日:季節的不変性のための弱い教師付き特徴学習
- Authors: Jaime Spencer, Richard Bowden, Simon Hadfield
- Abstract要約: 「夜も昼も」は2つのことが全く違うことを暗示するためによく使われる表現である。
本研究の目的は、局所化、スパースマッチング、画像検索に使用できる高密度特徴表現を提供することである。
Deja-Vuは、画素単位の地上真実データを必要としない季節不変の特徴を学習するための弱い教師付きアプローチである。
- 参考スコア(独自算出の注目度): 65.94499390875046
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: "Like night and day" is a commonly used expression to imply that two things
are completely different. Unfortunately, this tends to be the case for current
visual feature representations of the same scene across varying seasons or
times of day. The aim of this paper is to provide a dense feature
representation that can be used to perform localization, sparse matching or
image retrieval, regardless of the current seasonal or temporal appearance.
Recently, there have been several proposed methodologies for deep learning
dense feature representations. These methods make use of ground truth
pixel-wise correspondences between pairs of images and focus on the spatial
properties of the features. As such, they don't address temporal or seasonal
variation. Furthermore, obtaining the required pixel-wise correspondence data
to train in cross-seasonal environments is highly complex in most scenarios.
We propose Deja-Vu, a weakly supervised approach to learning season invariant
features that does not require pixel-wise ground truth data. The proposed
system only requires coarse labels indicating if two images correspond to the
same location or not. From these labels, the network is trained to produce
"similar" dense feature maps for corresponding locations despite environmental
changes. Code will be made available at:
https://github.com/jspenmar/DejaVu_Features
- Abstract(参考訳): 「夜も夜も」は2つのことが全く違うことを示すためによく使われる表現である。
残念なことに、これは様々な季節や時間にわたって同じシーンの現在のビジュアルな特徴表現に当てはまる傾向がある。
本研究の目的は,現在の季節的あるいは時間的外観によらず,局所化,スパースマッチング,画像検索に使用できる高密度特徴表現を提供することである。
近年,深層学習の特徴表現の手法がいくつか提案されている。
これらの手法は,一対のイメージ間の接地真理画素対応を利用し,特徴の空間的特性に焦点をあてる。
したがって、時間的変動や季節的変動には対処しない。
さらに,クロスシーズン環境でのトレーニングに必要な画素対応データを取得することは,ほとんどのシナリオにおいて非常に複雑である。
Deja-Vuは、画素単位の地上真実データを必要としない季節不変の特徴を学習するための弱い教師付きアプローチである。
提案システムは,2つの画像が同一位置に対応するか否かを示す粗いラベルのみを必要とする。
これらのラベルから、ネットワークは環境の変化にもかかわらず、対応する場所に「類似した」密集した特徴マップを作成するように訓練されている。
コードはhttps://github.com/jspenmar/dejavu_featuresで利用可能になる。
関連論文リスト
- Leveraging Semantic Cues from Foundation Vision Models for Enhanced Local Feature Correspondence [12.602194710071116]
本稿では,基礎視覚モデルの特徴から意味的手がかりを抽出し,局所的特徴マッチングを強化する手法を提案する。
カメラのローカライゼーションにおける性能は平均29%向上し,既存の6つのディスクリプタの適応版を提示する。
論文 参考訳(メタデータ) (2024-10-12T13:45:26Z) - Distractors-Immune Representation Learning with Cross-modal Contrastive Regularization for Change Captioning [71.14084801851381]
変更キャプションは、類似した画像間のセマンティックな変化を簡潔に記述することを目的としている。
既存のほとんどの手法は、それらの違いを直接キャプチャし、エラーを起こしやすい特徴を得るリスクを負う。
本稿では,2つの画像表現の対応するチャネルを関連づけるイントラクタ免疫表現学習ネットワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T13:00:33Z) - Context-aware Difference Distilling for Multi-change Captioning [106.72151597074098]
マルチチェンジキャプションは、自然言語でイメージペア内の複雑で結合的な変化を記述することを目的としている。
そこで本稿では, 文収量に対する真の変化をすべて捉えるための, 文脈認識型差分蒸留ネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-31T14:07:39Z) - Semantic Pose Verification for Outdoor Visual Localization with
Self-supervised Contrastive Learning [0.0]
我々は視覚的ローカライゼーションを改善するためにセマンティックコンテンツを利用する。
このシナリオでは、データベースはパノラマ画像から生成されたグノーモニックビューで構成されている。
我々は、セグメンテーションされた画像のデータセット上で、コントラスト学習を行い、自己教師型でCNNを訓練する。
論文 参考訳(メタデータ) (2022-03-31T11:09:38Z) - Spatially Multi-conditional Image Generation [80.04130168156792]
本稿では,マルチ条件画像生成の問題に対処する新しいニューラルアーキテクチャを提案する。
提案手法は, 利用可能なラベルを入力トークンとして受信する, 画素単位のトランスフォーマー型アーキテクチャを用いる。
3つのベンチマークデータセットに対する実験により,提案手法の最先端および比較ベースラインに対する明らかな優位性を示した。
論文 参考訳(メタデータ) (2022-03-25T17:57:13Z) - Sparse Spatial Transformers for Few-Shot Learning [6.271261279657655]
限られたデータから学ぶことは、データの不足によってトレーニングされたモデルの一般化が不十分になるため、難しい。
スパース空間トランスと呼ばれる新しいトランスを用いたニューラルネットワークアーキテクチャを提案する。
本手法はタスク関連機能を見つけ,タスク関連機能を抑制する。
論文 参考訳(メタデータ) (2021-09-27T10:36:32Z) - i3dLoc: Image-to-range Cross-domain Localization Robust to Inconsistent
Environmental Conditions [9.982307144353713]
本研究では,屋内および屋外の場面における点雲マップに対して,単一カメラのローカライズ方法を提案する。
本手法は,領域間対称な位置記述子を抽出することにより,等角形状の画像を3次元射影にマッチングすることができる。
単一のトレーニングモデルにより、i3dLocはランダムな条件下で、信頼できる視覚的ローカライゼーションを示すことができる。
論文 参考訳(メタデータ) (2021-05-27T00:13:11Z) - Region Similarity Representation Learning [94.88055458257081]
Region similarity Representation Learning(ReSim)は、ローカリゼーションベースのタスクに対する自己監視型表現学習の新しいアプローチである。
ReSimはローカリゼーションのための地域表現とセマンティックイメージレベルの表現の両方を学びます。
競合するMoCo-v2ベースラインと比較して、ReSimがローカリゼーションと分類性能を大幅に向上させる表現をどのように学習するかを示します。
論文 参考訳(メタデータ) (2021-03-24T00:42:37Z) - Cross-Descriptor Visual Localization and Mapping [81.16435356103133]
視覚のローカライゼーションとマッピングは、Mixed Realityとロボティクスシステムの大部分を支える重要な技術である。
特徴表現の連続的な更新を必要とする局所化とマッピングのための3つの新しいシナリオを提案する。
我々のデータ駆動型アプローチは特徴記述子型に非依存であり、計算要求が低く、記述アルゴリズムの数と線形にスケールする。
論文 参考訳(メタデータ) (2020-12-02T18:19:51Z) - Unsupervised Learning of Dense Visual Representations [14.329781842154281]
本研究では,高密度表現の教師なし学習のためのビュー・アグノスティック・Dense Representation (VADeR)を提案する。
VADeRは、異なる視聴条件に対して局所的な特徴を一定に保ち続けるように強制することで、ピクセルワイズ表現を学習する。
提案手法は、複数の密集予測タスクにおいて、ImageNetの教師付き事前学習よりも優れる。
論文 参考訳(メタデータ) (2020-11-11T01:28:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。