論文の概要: HM4: Hidden Markov Model with Memory Management for Visual Place
Recognition
- arxiv url: http://arxiv.org/abs/2011.00450v1
- Date: Sun, 1 Nov 2020 08:49:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 23:47:59.235399
- Title: HM4: Hidden Markov Model with Memory Management for Visual Place
Recognition
- Title(参考訳): HM4: 視覚的位置認識のためのメモリ管理を備えた隠れマルコフモデル
- Authors: Anh-Dzung Doan, Yasir Latif, Tat-Jun Chin, Ian Reid
- Abstract要約: 自律運転における視覚的位置認識のための隠れマルコフモデルを提案する。
我々のアルゴリズムはHM$4$と呼ばれ、時間的ルックアヘッドを利用して、有望な候補画像をパッシブストレージとアクティブメモリ間で転送する。
固定被覆領域に対して一定の時間と空間推定が可能であることを示す。
- 参考スコア(独自算出の注目度): 54.051025148533554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual place recognition needs to be robust against appearance variability
due to natural and man-made causes. Training data collection should thus be an
ongoing process to allow continuous appearance changes to be recorded. However,
this creates an unboundedly-growing database that poses time and memory
scalability challenges for place recognition methods. To tackle the scalability
issue for visual place recognition in autonomous driving, we develop a Hidden
Markov Model approach with a two-tiered memory management. Our algorithm,
dubbed HM$^4$, exploits temporal look-ahead to transfer promising candidate
images between passive storage and active memory when needed. The inference
process takes into account both promising images and a coarse representations
of the full database. We show that this allows constant time and space
inference for a fixed coverage area. The coarse representations can also be
updated incrementally to absorb new data. To further reduce the memory
requirements, we derive a compact image representation inspired by Locality
Sensitive Hashing (LSH). Through experiments on real world data, we demonstrate
the excellent scalability and accuracy of the approach under appearance changes
and provide comparisons against state-of-the-art techniques.
- Abstract(参考訳): 視覚的な位置認識は,自然および人為的な要因による外観変動に対して頑健である必要がある。
したがって、トレーニングデータ収集は、継続的な外観変更を記録するための継続的なプロセスであるべきです。
しかし、これは、場所認識メソッドに時間とメモリスケーラビリティの課題をもたらす、無制限に成長するデータベースを生み出します。
自律運転における視覚位置認識のスケーラビリティ問題に取り組むため,二層メモリ管理を用いた隠れマルコフモデル手法を開発した。
我々のアルゴリズムはHM$^4$と呼ばれ、時間的ルックアヘッドを利用して、受動的ストレージとアクティブメモリ間で有望な候補画像を転送する。
推論プロセスは、有望な画像と完全なデータベースの粗い表現の両方を考慮に入れます。
固定被覆領域に対して一定の時間と空間推定が可能であることを示す。
粗い表現を漸進的に更新して、新しいデータを吸収することもできる。
メモリ要求をさらに低減するため,Locality Sensitive Hashing (LSH) にインスパイアされたコンパクトな画像表現を導出する。
実世界のデータを用いて、外観変化によるアプローチの優れたスケーラビリティと精度を実証し、最先端技術との比較を行う。
関連論文リスト
- Stable Hadamard Memory: Revitalizing Memory-Augmented Agents for Reinforcement Learning [64.93848182403116]
現在のディープラーニングメモリモデルは、部分的に観察可能で長期にわたる強化学習環境で苦労している。
本稿では,強化学習エージェントのための新しい記憶モデルであるStable Hadamard Memoryを紹介する。
我々の手法は、部分的に観測可能なベンチマークに挑戦する上で、最先端のメモリベースの手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-10-14T03:50:17Z) - Register assisted aggregation for Visual Place Recognition [4.5476780843439535]
視覚的場所認識(VPR)とは、コンピュータビジョンを用いて現在のクエリ画像の位置を認識する過程を指す。
従来の手法では、認識精度を向上させるのに役立つ未制御の破棄機能に対して、役に立たない機能を捨てることが多かった。
本稿では,この問題を解決するための特徴集約手法を提案する。具体的には,識別可能な場所情報を含むグローバルな特徴とローカルな特徴を得るために,元の画像トークン上にいくつかのレジスタを追加した。
論文 参考訳(メタデータ) (2024-05-19T11:36:52Z) - Unrecognizable Yet Identifiable: Image Distortion with Preserved Embeddings [22.338328674283062]
本稿では,ニューラルネットワークモデルによる顔画像の識別性を保ちながら,目に対して認識不能な顔画像を描画する,革新的な画像変換手法を提案する。
提案手法は、様々な人工知能アプリケーションにおいて、視覚データを歪曲し、派生した特徴を近接に保つために使用することができる。
同一の認識精度を維持しつつ、画像内容が70%以上変化する歪みを構築することができることを示す。
論文 参考訳(メタデータ) (2024-01-26T18:20:53Z) - Rethinking Exemplars for Continual Semantic Segmentation in Endoscopy
Scenes: Entropy-based Mini-Batch Pseudo-Replay [18.383604936008744]
内視鏡は、疾患の早期発見や、ロボットによる最小侵襲手術(RMIS)に広く用いられている技術である
既存のディープラーニング(DL)モデルは破滅的な忘れ込みに悩まされることがある。
データプライバシとストレージの問題は、モデルを更新するときに古いデータが利用できないことにつながる可能性がある。
本研究では,データストレージやプライバシーの問題にかかわらない内視鏡連続セマンティック(EndoCSS)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-27T13:07:44Z) - Black-box Unsupervised Domain Adaptation with Bi-directional
Atkinson-Shiffrin Memory [59.51934126717572]
Black-box Unsupervised Domain adaptation (UDA)は、トレーニング中にソースデータまたはソースモデルにアクセスすることなく、ターゲットデータのソース予測で学習する。
両方向の記憶機構であるBiMemを提案する。
BiMemは、画像分類、セマンティックセグメンテーション、オブジェクト検出など、さまざまな視覚的タスクに一貫して優れたドメイン適応性能を実現する。
論文 参考訳(メタデータ) (2023-08-25T08:06:48Z) - Improving Image Recognition by Retrieving from Web-Scale Image-Text Data [68.63453336523318]
本稿では,メモリから抽出した各サンプルの重要性を学習するアテンションベースのメモリモジュールを提案する。
既存の手法と比較して,提案手法は無関係な検索例の影響を排除し,入力クエリに有益であるものを保持する。
我々は、ImageNet-LT、Places-LT、Webvisionのデータセットで最先端の精度を実現していることを示す。
論文 参考訳(メタデータ) (2023-04-11T12:12:05Z) - Unsupervised Feature Learning for Event Data: Direct vs Inverse Problem
Formulation [53.850686395708905]
イベントベースのカメラは、ピクセルごとの明るさ変化の非同期ストリームを記録する。
本稿では,イベントデータからの表現学習のための単一層アーキテクチャに焦点を当てる。
我々は,最先端手法と比較して,認識精度が最大9%向上したことを示す。
論文 参考訳(メタデータ) (2020-09-23T10:40:03Z) - Learning Invariant Representations for Reinforcement Learning without
Reconstruction [98.33235415273562]
本研究では,表現学習が画像などのリッチな観察からの強化学習を,ドメイン知識や画素再構成に頼ることなく促進する方法について検討する。
シミュレーションメトリクスは、連続MDPの状態間の振る舞いの類似性を定量化する。
修正された視覚的 MuJoCo タスクを用いてタスク関連情報を無視する手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-06-18T17:59:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。