論文の概要: LiLa-Net: Lightweight Latent LiDAR Autoencoder for 3D Point Cloud Reconstruction
- arxiv url: http://arxiv.org/abs/2510.02028v1
- Date: Thu, 02 Oct 2025 14:00:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:21.152334
- Title: LiLa-Net: Lightweight Latent LiDAR Autoencoder for 3D Point Cloud Reconstruction
- Title(参考訳): LiLa-Net:3Dポイントクラウド再構成のための軽量遅延LiDARオートエンコーダ
- Authors: Mario Resino, Borja Pérez, Jaime Godoy, Abdulla Al-Kaff, Fernando García,
- Abstract要約: LiLa-Netは3Dオートエンコーダアーキテクチャで、実際のトラフィック環境から機能をエンコードし、LiDARのポイントクラウドのみを使用する。
主な変更点として、エンコーダのレイヤ数を削減し、スキップ接続を簡素化すると同時に、効率的で代表的なラテントスペースを生成する。
モデルは強力な一般化能力を示し、元の交通環境とは無関係なオブジェクトの再構築に成功した。
- 参考スコア(独自算出の注目度): 37.55387782245955
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work proposed a 3D autoencoder architecture, named LiLa-Net, which encodes efficient features from real traffic environments, employing only the LiDAR's point clouds. For this purpose, we have real semi-autonomous vehicle, equipped with Velodyne LiDAR. The system leverage skip connections concept to improve the performance without using extensive resources as the state-of-the-art architectures. Key changes include reducing the number of encoder layers and simplifying the skip connections, while still producing an efficient and representative latent space which allows to accurately reconstruct the original point cloud. Furthermore, an effective balance has been achieved between the information carried by the skip connections and the latent encoding, leading to improved reconstruction quality without compromising performance. Finally, the model demonstrates strong generalization capabilities, successfully reconstructing objects unrelated to the original traffic environment.
- Abstract(参考訳): この研究は、3DオートエンコーダアーキテクチャであるLiLa-Netを提案し、LiDARのポイントクラウドのみを使用して、実際のトラフィック環境から効率的な機能をエンコードした。
この目的のために、私たちはVelodyne LiDARを装備した本物の半自律車を持っています。
このシステムはスキップ接続の概念を利用して、最先端アーキテクチャとして広範なリソースを使わずに、パフォーマンスを改善する。
主な変更点として、エンコーダ層の数を削減し、スキップ接続を簡素化すると同時に、元のポイントクラウドを正確に再構築できる効率的で代表的なラテントスペースを引き続き生成する。
さらに、スキップ接続によって転送される情報と潜時符号化との間の効果的なバランスが達成され、性能を損なうことなく復元品質が向上した。
最後に、モデルは強力な一般化能力を示し、元の交通環境とは無関係なオブジェクトの再構築に成功した。
関連論文リスト
- Improving Reconstruction of Representation Autoencoder [52.817427902597416]
低レベル情報を欠いた意味的特徴を増強する表現オートエンコーダLV-RAEを提案する。
実験により,LV-RAEは意味的抽象化を保ちながら,再構成の忠実度を著しく向上することが示された。
論文 参考訳(メタデータ) (2026-02-09T13:12:35Z) - Unleashing Degradation-Carrying Features in Symmetric U-Net: Simpler and Stronger Baselines for All-in-One Image Restoration [52.82397287366076]
オールインワン画像復元は、統合された枠組み内で様々な劣化(ノイズ、ぼかし、悪天候など)を扱うことを目的としている。
本研究では, 優れた特徴抽出法により, 劣化伝達情報を本質的にエンコードする, 重要な知見を明らかにする。
我々の対称設計は固有の劣化信号を頑健に保存し、スキップ接続に単純な加法融合を施す。
論文 参考訳(メタデータ) (2025-12-11T12:20:31Z) - ProDAT: Progressive Density-Aware Tail-Drop for Point Cloud Coding [6.790494397851803]
3次元(3D)ポイントクラウドは、自律運転、拡張現実、没入型コミュニケーション、リアルタイム処理の要求、低レイテンシといったアプリケーションにおいて、ますます重要になっている。
Progres- sive コーディングは、様々な詳細レベルで復号化が可能で、初期部分復号化を後続の洗練とともに可能にすることで代替手段を提供する。
論文 参考訳(メタデータ) (2025-10-20T00:50:16Z) - TriFusion-AE: Language-Guided Depth and LiDAR Fusion for Robust Point Cloud Processing [0.0]
オートエンコーダは、デノナイズと再構築のための自然なフレームワークを提供するが、そのパフォーマンスは、現実の困難な条件下で低下する。
テキスト先行情報と多視点画像からの単眼深度マップとLiDAR点雲を統合し,ロバスト性を向上させるクロスアテンションオートエンコーダであるTriFusion-AEを提案する。
このモデルは,CNNベースのオートエンコーダが崩壊する強敵攻撃と重騒音下で,より堅牢な再構築を実現する。
論文 参考訳(メタデータ) (2025-09-23T07:37:28Z) - H3AE: High Compression, High Speed, and High Quality AutoEncoder for Video Diffusion Models [97.45170082949552]
オートエンコーダ(AE)は、画像およびビデオ生成のための潜時拡散モデルの成功の鍵である。
H3AEはGPUとモバイルで超高圧縮比とリアルタイムデコード速度を達成する。
論文 参考訳(メタデータ) (2025-04-14T17:59:06Z) - L3AC: Towards a Lightweight and Lossless Audio Codec [10.903708510237875]
我々は、単一量子化器と高効率アーキテクチャを活用することで課題に対処する軽量なニューラルオーディオであるL3ACを紹介する。
L3ACは、複数の時間スケールにわたる音響変化を捉えるように設計された新しい構造であるTConvとともに、合理化された畳み込みネットワークとローカルトランスフォーマーモジュールを探索する。
論文 参考訳(メタデータ) (2025-04-07T11:34:39Z) - VideoLifter: Lifting Videos to 3D with Fast Hierarchical Stereo Alignment [54.66217340264935]
VideoLifterは、ローカルからグローバルへの戦略を断片的に活用する、新しいビデオから3Dパイプラインである。
再建プロセスを大幅に加速し、訓練時間を82%以上削減し、現在のSOTA法よりも視覚的品質を向上した。
論文 参考訳(メタデータ) (2025-01-03T18:52:36Z) - UNet--: Memory-Efficient and Feature-Enhanced Network Architecture based on U-Net with Reduced Skip-Connections [9.919381070435525]
エンコーダ、デコーダ、スキップ接続コンポーネントを備えたU-Netモデルは、様々な視覚タスクにおいて有効であることを示す。
復号ステージの前に、スキップ接続で使われる特徴マップをメモリ内に保持する必要がある。
本稿では,メモリ消費を削減し,ネットワーク性能を向上させるための機能マップを生成する汎用手法とアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-12-24T08:38:34Z) - StarNet: Style-Aware 3D Point Cloud Generation [82.30389817015877]
StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2023-03-28T08:21:44Z) - MAELi: Masked Autoencoder for Large-Scale LiDAR Point Clouds [13.426810473131642]
Masked AutoEncoder for LiDAR Point clouds (MAELi) は、復元中にエンコーダとデコーダの両方でLiDARポイントクラウドの空間性を直感的に活用する。
新たな再構築アプローチでは、MAELiは空空間と隠された空間を区別する。
これにより、MAELiは基礎となる3次元シーンの幾何学と意味論の理解を得る。
論文 参考訳(メタデータ) (2022-12-14T13:10:27Z) - SeRP: Self-Supervised Representation Learning Using Perturbed Point
Clouds [6.29475963948119]
SeRPはエンコーダ・デコーダアーキテクチャで構成されており、乱れや破損した点雲を入力として利用する。
トランスフォーマーとPointNetベースのオートエンコーダを使用しました。
論文 参考訳(メタデータ) (2022-09-13T15:22:36Z) - SoftPool++: An Encoder-Decoder Network for Point Cloud Completion [93.54286830844134]
本稿では,ポイントクラウド完了作業のための新しい畳み込み演算子を提案する。
提案した演算子は、最大プールやボキセル化操作を一切必要としない。
提案手法は,低解像度・高解像度の形状仕上げにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-08T15:31:36Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。