論文の概要: Self-Supervised Learning for Place Representation Generalization across
Appearance Changes
- arxiv url: http://arxiv.org/abs/2303.02370v3
- Date: Thu, 21 Dec 2023 13:03:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-25 18:53:37.849911
- Title: Self-Supervised Learning for Place Representation Generalization across
Appearance Changes
- Title(参考訳): 外観変化を考慮した場所表現一般化のための自己教師あり学習
- Authors: Mohamed Adel Musallam, Vincent Gaudilli\`ere, Djamila Aouada
- Abstract要約: 本研究では,幾何学的変換に敏感な外観変化に対して頑健な学習特徴を自己指導的に検討する。
その結果,視覚的位置認識と視覚的位置認識の協調学習が,視覚的位置認識の競合に繋がることが明らかとなった。
- 参考スコア(独自算出の注目度): 11.030196234282675
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Visual place recognition is a key to unlocking spatial navigation for
animals, humans and robots. While state-of-the-art approaches are trained in a
supervised manner and therefore hardly capture the information needed for
generalizing to unusual conditions, we argue that self-supervised learning may
help abstracting the place representation so that it can be foreseen,
irrespective of the conditions. More precisely, in this paper, we investigate
learning features that are robust to appearance modifications while sensitive
to geometric transformations in a self-supervised manner. This dual-purpose
training is made possible by combining the two self-supervision main paradigms,
\textit{i.e.} contrastive and predictive learning. Our results on standard
benchmarks reveal that jointly learning such appearance-robust and
geometry-sensitive image descriptors leads to competitive visual place
recognition results across adverse seasonal and illumination conditions,
without requiring any human-annotated labels.
- Abstract(参考訳): 視覚的な場所認識は、動物、人間、ロボットのための空間ナビゲーションの鍵となる。
state-of-the-artアプローチは教師ありの方法で訓練されているため、異常な条件に一般化するのに必要な情報をほとんど捉えていないが、自己教師あり学習は、状況に関係なく予測できるように場所表現を抽象化するのに役立つと論じている。
より正確には,幾何学的変換に敏感な外観変化に対して頑健な学習特徴を自己指導的に検討する。
この二重目的トレーニングは、2つの自己スーパービジョンのメインパラダイムである \textit{i.e} と予測学習を組み合わせることで実現される。
基準ベンチマークの結果から,このような画像記述子を共同で学習することで,ヒトのアノテートラベルを必要とせず,季節や照明の悪い条件にまたがる視覚的位置認識の競合が生じることが明らかとなった。
関連論文リスト
- Emotic Masked Autoencoder with Attention Fusion for Facial Expression Recognition [1.4374467687356276]
本稿では,MAE-Face self-supervised learning (SSL) 法と多視点融合注意機構を組み合わせた表現分類手法を提案する。
我々は、重要な顔の特徴を強調表示して、そのような機能がモデルのガイドとして機能するかどうかを判断することを目的とした、実装が容易でトレーニングなしのフレームワークを提案する。
Aff-wild2データセットにおけるモデル性能の改善により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-03-19T16:21:47Z) - Knowledge-Aware Prompt Tuning for Generalizable Vision-Language Models [64.24227572048075]
本稿では,視覚言語モデルのためのKnowledge-Aware Prompt Tuning(KAPT)フレームワークを提案する。
我々のアプローチは、人間の知性からインスピレーションを得ており、外部知識は、通常、オブジェクトの新たなカテゴリを認識するために組み込まれています。
論文 参考訳(メタデータ) (2023-08-22T04:24:45Z) - A Symbolic Representation of Human Posture for Interpretable Learning
and Reasoning [2.678461526933908]
我々は,人間の姿勢を,より親しみやすい言葉で表現する質的空間推論手法を導入する。
本稿では,2つのレベルでのシンボル表現の導出と,その予備的利用について述べる。
論文 参考訳(メタデータ) (2022-10-17T12:22:13Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Stochastic Coherence Over Attention Trajectory For Continuous Learning
In Video Streams [64.82800502603138]
本稿では,映像ストリーム中のピクセルワイズ表現を段階的かつ自律的に開発するための,ニューラルネットワークに基づく新しいアプローチを提案する。
提案手法は, 参加者の入場地を観察することで, エージェントが学習できる, 人間の様の注意機構に基づく。
実験では,3次元仮想環境を利用して,映像ストリームを観察することで,エージェントが物体の識別を学べることを示す。
論文 参考訳(メタデータ) (2022-04-26T09:52:31Z) - Vision-Based Manipulators Need to Also See from Their Hands [58.398637422321976]
本研究では,視覚的視点の選択が,生のセンサ観測から身体操作の文脈における学習と一般化にどう影響するかを検討する。
手中心(目の)視点は可観測性を低下させるが、トレーニング効率とアウト・オブ・ディストリビューションの一般化を一貫して改善する。
論文 参考訳(メタデータ) (2022-03-15T18:46:18Z) - Unsupervised Deep Metric Learning with Transformed Attention Consistency
and Contrastive Clustering Loss [28.17607283348278]
教師なしのメートル法学習のための既存のアプローチは、入力画像自体の自己超越情報を探索することに焦点を当てている。
我々は、画像を分析する際、人間の目は個々の画像を調べるのではなく、互いに画像を比較することが多いことを観察した。
本研究では,画像間の自己超越情報に基づいてネットワークを学習する,教師なし深度学習のための新しいアプローチを開発する。
論文 参考訳(メタデータ) (2020-08-10T19:33:47Z) - Towards Purely Unsupervised Disentanglement of Appearance and Shape for
Person Images Generation [88.03260155937407]
我々は,入力画像から形状と外観の特徴を同時に抽出するエンコーダ・デコーダのようなネットワークを定式化する。
特徴的対向的損失,色調的損失,復元的損失の3つの損失でパラメータを訓練する。
DeepFashion と Market1501 の実験結果から,提案手法がクリーンな絡み合いを実現することを示す。
論文 参考訳(メタデータ) (2020-07-26T10:56:37Z) - Self-Supervised Learning Across Domains [33.86614301708017]
本稿では,ドメイン間のオブジェクト認識の問題に対して,同様のアプローチを適用することを提案する。
モデルでは,教師付き方式でセマンティックラベルを学習し,同じ画像上の自己教師型信号から学習することで,データに対する理解を深める。
この二次的なタスクは、ネットワークが対象の形状、空間配向や部分相関といった概念を学ぶのに役立ち、分類タスクの正規化として機能する。
論文 参考訳(メタデータ) (2020-07-24T06:19:53Z) - Unsupervised Landmark Learning from Unpaired Data [117.81440795184587]
教師なしランドマーク学習の最近の試みは、外観は似ているがポーズでは異なる合成画像対を活用する。
本稿では,2回スワッピング・リコンストラクション・ストラテジーを適用して最終監視を行うクロスイメージ・サイクル整合性フレームワークを提案する。
提案するフレームワークは,強いベースラインを大きなマージンで上回ることを示す。
論文 参考訳(メタデータ) (2020-06-29T13:57:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。