論文の概要: Learning to Localize Through Compressed Binary Maps
- arxiv url: http://arxiv.org/abs/2012.10942v1
- Date: Sun, 20 Dec 2020 14:47:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 04:44:57.190300
- Title: Learning to Localize Through Compressed Binary Maps
- Title(参考訳): 圧縮バイナリマップによる局所化の学習
- Authors: Xinkai Wei, Ioan Andrei B\^arsan, Shenlong Wang, Julieta Martinez,
Raquel Urtasun
- Abstract要約: 私たちは、地図表現をローカリゼーションタスクに最適なように圧縮することを学びます。
本実験により,汎用コーデック上での2桁のストレージ要求を削減できるタスク固有圧縮を学習できることが示唆された。
- 参考スコア(独自算出の注目度): 83.03367511221437
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the main difficulties of scaling current localization systems to large
environments is the on-board storage required for the maps. In this paper we
propose to learn to compress the map representation such that it is optimal for
the localization task. As a consequence, higher compression rates can be
achieved without loss of localization accuracy when compared to standard coding
schemes that optimize for reconstruction, thus ignoring the end task. Our
experiments show that it is possible to learn a task-specific compression which
reduces storage requirements by two orders of magnitude over general-purpose
codecs such as WebP without sacrificing performance.
- Abstract(参考訳): 現在のローカライゼーションシステムを大規模環境にスケールする上で大きな課題の1つは、マップに必要なオンボードストレージである。
本稿では,局所化タスクに最適であるように地図表現を圧縮する学習法を提案する。
その結果、再構成を最適化する標準的な符号化方式と比較して、ローカライズ精度を損なうことなく高い圧縮率を達成することができる。
本研究では,webpなどの汎用コーデックに対して,性能を犠牲にすることなく,ストレージ要求を2桁削減するタスク固有圧縮を学習できることを実証する。
関連論文リスト
- Large Language Models for Lossless Image Compression: Next-Pixel Prediction in Language Space is All You Need [53.584140947828004]
前例のないインテリジェンスを持つ言語大モデル(LLM)は、様々なデータモダリティのための汎用ロスレス圧縮機である。
P$2$-LLMは,様々な入念な洞察と方法論を統合した次世代の予測型LLMである。
ベンチマークデータセットの実験では、P$2$-LLMがSOTAの古典的および学習的コーデックに勝ることを示した。
論文 参考訳(メタデータ) (2024-11-19T12:15:40Z) - LoRC: Low-Rank Compression for LLMs KV Cache with a Progressive Compression Strategy [59.1298692559785]
キーバリュー(KV)キャッシュは、トランスフォーマーベースの自己回帰型大言語モデル(LLM)を提供する上で重要なコンポーネントである。
この問題を緩和するためのアプローチとしては、(1) アップサイクルステージに統合された効率的な注意変動、(2) テスト時のKVキャッシュ圧縮、(3) テスト時のKVキャッシュ圧縮がある。
そこで我々は,KV重み行列の低ランク近似を提案し,モデル再学習なしに既存のトランスフォーマーベースLCMとのプラグイン統合を実現する。
本手法は,テスト段階におけるアップサイクリング段階のモデルチューニングやタスク固有のプロファイリングを伴わずに機能するように設計されている。
論文 参考訳(メタデータ) (2024-10-04T03:10:53Z) - Fast Point Cloud Geometry Compression with Context-based Residual Coding and INR-based Refinement [19.575833741231953]
我々は、KNN法を用いて、原表面点の近傍を決定する。
条件付き確率モデルは局所幾何学に適応し、大きな速度減少をもたらす。
暗黙のニューラル表現を精製層に組み込むことで、デコーダは任意の密度で下面の点をサンプリングすることができる。
論文 参考訳(メタデータ) (2024-08-06T05:24:06Z) - Lossless Image Compression Using Multi-level Dictionaries: Binary Images [2.2940141855172036]
画像の保存や伝送コストを削減するために、さまざまなアプリケーションにおいてロスレス画像圧縮が必要である。
カラー画像の圧縮性は、本質的には空間構造におけるパターンから導かれるものであると論じる。
提案手法はまず,バイナリ画像のデータセットから16時間16ドル,8時間8ドル,4時間4ドル,2時間2平方ピクセルパターンの辞書を学習する。
論文 参考訳(メタデータ) (2024-06-05T09:24:10Z) - Efficient Map Sparsification Based on 2D and 3D Discretized Grids [47.22997560184043]
マップが大きくなると、より多くのメモリが必要になり、ローカライゼーションが非効率になる。
以前の地図スペーシフィケーション法は、選択されたランドマークの均一分布を強制するために混合整数計画において二次項を追加する。
本稿では,効率的な線形形式で地図スペーシフィケーションを定式化し,2次元離散格子に基づく一様分布ランドマークを選択する。
論文 参考訳(メタデータ) (2023-03-20T05:49:14Z) - NeuMap: Neural Coordinate Mapping by Auto-Transdecoder for Camera
Localization [60.73541222862195]
NeuMapは、カメラのローカライゼーションのためのエンドツーエンドのニューラルマッピング手法である。
シーン全体を遅延コードグリッドにエンコードし、Transformerベースのオートデコーダがクエリピクセルの3D座標を回帰する。
論文 参考訳(メタデータ) (2022-11-21T04:46:22Z) - Neural Network Assisted Depth Map Packing for Compression Using Standard
Hardware Video Codecs [0.38073142980732994]
本稿では,ニューラルネットワークモデルによって支援された可変精度パッキング手法を提案する。
モデルが最適な予測に近づき、非常に低いオーバーヘッドでゲームエンジンに統合できることを実証する。
論文 参考訳(メタデータ) (2022-06-30T10:46:05Z) - End-to-end lossless compression of high precision depth maps guided by
pseudo-residual [6.213322670014608]
高精度深度マップの圧縮率を向上した新しい圧縮法を検討することが急務である。
本稿では,高精度深度マップのためのエンドツーエンド学習に基づくロスレス圧縮手法を提案する。
論文 参考訳(メタデータ) (2022-01-10T07:19:02Z) - Variable-Rate Deep Image Compression through Spatially-Adaptive Feature
Transform [58.60004238261117]
空間特徴変換(SFT arXiv:1804.02815)に基づく多目的深部画像圧縮ネットワークを提案する。
本モデルは,任意の画素単位の品質マップによって制御される単一モデルを用いて,幅広い圧縮速度をカバーしている。
提案するフレームワークにより,様々なタスクに対してタスク対応の画像圧縮を行うことができる。
論文 参考訳(メタデータ) (2021-08-21T17:30:06Z) - Neural Network Compression Via Sparse Optimization [23.184290795230897]
スパース最適化の最近の進歩に基づくモデル圧縮フレームワークを提案する。
我々は、CIFAR10のVGG16とImageNetのResNet50で、同じレベルの精度で、最大7.2倍と2.9倍のFLOPを削減できる。
論文 参考訳(メタデータ) (2020-11-10T03:03:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。