論文の概要: Vision-Aided Beam Tracking: Explore the Proper Use of Camera Images with
Deep Learning
- arxiv url: http://arxiv.org/abs/2109.14686v1
- Date: Wed, 29 Sep 2021 19:47:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-02 09:00:24.473860
- Title: Vision-Aided Beam Tracking: Explore the Proper Use of Camera Images with
Deep Learning
- Title(参考訳): 視覚支援ビームトラッキング:ディープラーニングによるカメラ画像の適切な利用の検討
- Authors: Yu Tian, Chenwei Wang
- Abstract要約: カメラ画像を用いたミリ波帯における無線光追跡の問題点について検討する。
特に,利用者の用いたビーム指標と軌跡で撮影したカメラ画像に基づいて,今後数回の時間帯で最適なビーム指標を予測する。
ディープラーニングアプローチを開発し、様々なモデルコンポーネントを調査し、最高のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 14.081623882445392
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate the problem of wireless beam tracking on mmWave bands with the
assistance of camera images. In particular, based on the user's beam indices
used and camera images taken in the trajectory, we predict the optimal beam
indices in the next few time spots. To resolve this problem, we first
reformulate the "ViWi" dataset in [1] to get rid of the image repetition
problem. Then we develop a deep learning approach and investigate various model
components to achieve the best performance. Finally, we explore whether, when,
and how to use the image for better beam prediction. To answer this question,
we split the dataset into three clusters -- (LOS, light NLOS, serious
NLOS)-like -- based on the standard deviation of the beam sequence. With
experiments we demonstrate that using the image indeed helps beam tracking
especially when the user is in serious NLOS, and the solution relies on
carefully-designed dataset for training a model. Generally speaking, including
NLOS-like data for training a model does not benefit beam tracking of the user
in LOS, but including light NLOS-like data for training a model benefits beam
tracking of the user in serious NLOS.
- Abstract(参考訳): カメラ画像を用いたミリ波帯における無線光追跡の問題点について検討する。
特に、使用中のユーザのビームインデックスと軌道で撮影されたカメラ画像に基づいて、次の数回の時点における最適なビームインデックスを予測する。
この問題を解決するために,まず[1] で "viwi" データセットを再構成し,画像反復問題を解消する。
そこで我々は,ディープラーニングアプローチを開発し,様々なモデルコンポーネントを調査し,最高の性能を実現する。
最後に, ビーム予測の精度向上のために, 画像の使用時期, 使用方法について検討する。
この質問に答えるために、ビームシーケンスの標準偏差に基づいてデータセットを3つのクラスタ(LOS、軽NLOS、重NLOS)に分割しました。
実験によって、この画像を使うことは、特に深刻なnlosにある場合にビームトラッキングに役立つことを実証し、そのソリューションは、モデルをトレーニングするために慎重に設計されたデータセットに依存していることを実証する。
一般論として、モデルトレーニング用のNLOSライクなデータを含むと、LOS内のユーザのビームトラッキングにメリットはないが、モデルトレーニング用の軽量なNLOSライクなデータを含むと、真剣なNLOSにおけるユーザのビームトラッキングにメリットがある。
関連論文リスト
- Transientangelo: Few-Viewpoint Surface Reconstruction Using Single-Photon Lidar [8.464054039931245]
ライダーは、ターゲットに光のパルスを放出し、反射光の光速遅延を記録することで、3Dシーンの幾何学を捉えている。
従来のライダーシステムは、後方散乱光の生で捕獲された波形を出力しない。
我々は,光子ノイズに対するロバスト性を向上させる新しい正則化戦略を開発し,画素あたり10光子程度で正確な表面再構成を可能にする。
論文 参考訳(メタデータ) (2024-08-22T08:12:09Z) - Shelf-Supervised Cross-Modal Pre-Training for 3D Object Detection [52.66283064389691]
最先端の3Dオブジェクト検出器は、しばしば大量のラベル付きデータセットで訓練される。
近年の研究では、ラベル付きデータによる自己教師付き事前学習が、ラベル付きラベルによる検出精度を向上させることが示されている。
組合わせRGBとLiDARデータからゼロショット3Dバウンディングボックスを生成するためのシェルフ制御手法を提案する。
論文 参考訳(メタデータ) (2024-06-14T15:21:57Z) - Using Motion Cues to Supervise Single-Frame Body Pose and Shape
Estimation in Low Data Regimes [93.69730589828532]
十分な注釈付きトレーニングデータが得られた場合、教師付きディープラーニングアルゴリズムは、単一のカメラを使用して人間の身体のポーズと形状を推定する。
このような場合、必要な監視信号を提供するために、アノテーションのないビデオを簡単に作成できることが示される。
論文 参考訳(メタデータ) (2024-02-05T05:37:48Z) - Joint 3D Shape and Motion Estimation from Rolling Shutter Light-Field
Images [2.0277446818410994]
本研究では,ローリングシャッターセンサを備えた光界カメラで撮影した1枚の画像からシーンを3次元再構成する手法を提案する。
本手法は、光場に存在する3次元情報キューと、ローリングシャッター効果によって提供される動き情報を利用する。
本稿では,このセンサの撮像プロセスの汎用モデルと再投射誤差を最小化する2段階アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-02T15:08:18Z) - HPointLoc: Point-based Indoor Place Recognition using Synthetic RGB-D
Images [58.720142291102135]
本稿では,屋内環境における視覚的位置認識能力の探索を目的とした,HPointLocという新しいデータセットを提案する。
データセットは人気のあるHabitatシミュレータに基づいており、独自のセンサーデータとオープンデータセットの両方を使用して屋内シーンを生成することができる。
論文 参考訳(メタデータ) (2022-12-30T12:20:56Z) - When the Sun Goes Down: Repairing Photometric Losses for All-Day Depth
Estimation [47.617222712429026]
既存の測光損失を昼夜両方の画像に有効にするための3つの手法の組み合わせについて述べる。
まず、連続するフレーム間で起こる光の変化を補うために、ピクセルごとの神経強度変換を導入する。
第2に,推定エゴモーションと深度によって引き起こされる再投影対応を補正するために,画素ごとの残留フローマップを推定する。
論文 参考訳(メタデータ) (2022-06-28T09:29:55Z) - LiDARCap: Long-range Marker-less 3D Human Motion Capture with LiDAR
Point Clouds [58.402752909624716]
既存のモーションキャプチャデータセットはほとんどが短距離であり、まだ長距離アプリケーションのニーズに合わない。
我々は,この制限を克服するために,LiDARがより長い範囲で捉えた新しい人間のモーションキャプチャーデータセットLiDARHuman26Mを提案する。
我々のデータセットには、IMUシステムによって取得された人間の動きと同期RGB画像も含まれている。
論文 参考訳(メタデータ) (2022-03-28T12:52:45Z) - Stereo Matching by Self-supervision of Multiscopic Vision [65.38359887232025]
カメラ位置の整列で撮影した複数の画像を利用したステレオマッチングのための新しい自己監視フレームワークを提案する。
ネットワークを最適化するために、クロスフォトメトリックロス、不確実性を認識した相互監督損失、および新しい平滑性損失が導入されます。
我々のモデルは、KITTIデータセット上の以前の教師なし手法よりも、より良い不均一性マップを得る。
論文 参考訳(メタデータ) (2021-04-09T02:58:59Z) - Learned Camera Gain and Exposure Control for Improved Visual Feature
Detection and Matching [12.870196901446208]
我々は、環境照明の変化を考慮に入れたデータ駆動型アプローチを探求し、ビジュアル・オドメトリー(VO)や視覚同時像定位マッピング(SLAM)で使用する画像の品質を改善した。
我々は、カメラゲインと露出時間パラメータを予測的に調整するために、深層畳み込みニューラルネットワークモデルを訓練する。
我々は、我々のネットワークが劇的な照明変化を予想し、補うことができるような、広範囲な実世界の実験を通して実証する。
論文 参考訳(メタデータ) (2021-02-08T16:46:09Z) - Learning Collision-Free Space Detection from Stereo Images: Homography
Matrix Brings Better Data Augmentation [16.99302954185652]
少数のトレーニングサンプルを使用して、深い畳み込みニューラルネットワーク(DCNN)を訓練することは、依然としてオープンな課題です。
本稿では,dcnnの性能向上に有効なトレーニングデータ拡張手法について検討する。
論文 参考訳(メタデータ) (2020-12-14T19:14:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。