論文の概要: RadarEye: Robust Liquid Level Tracking Using mmWave Radar in Robotic Pouring
- arxiv url: http://arxiv.org/abs/2602.10417v1
- Date: Wed, 11 Feb 2026 01:57:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:41.350738
- Title: RadarEye: Robust Liquid Level Tracking Using mmWave Radar in Robotic Pouring
- Title(参考訳): RadarEye: ロボットポーリングにおけるミリ波レーダを用いたロバスト液体レベルの追跡
- Authors: Hongyu Deng, He Chen,
- Abstract要約: RadarEyeは、液体レベルの推定と追跡のためのリアルタイムmmWaveレーダ信号処理パイプラインである。
RadarEyeは0.35cmの絶対高度誤差を1回の更新あたり0.62msで達成し、視力と超音波のベースラインを大きく上回っている。
- 参考スコア(独自算出の注目度): 4.023217125139733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transparent liquid manipulation in robotic pouring remains challenging for perception systems: specular/refraction effects and lighting variability degrade visual cues, undermining reliable level estimation. To address this challenge, we introduce RadarEye, a real-time mmWave radar signal processing pipeline for robust liquid level estimation and tracking during the whole pouring process. RadarEye integrates (i) a high-resolution range-angle beamforming module for liquid level sensing and (ii) a physics-informed mid-pour tracker that suppresses multipath to maintain lock on the liquid surface despite stream-induced clutter and source container reflections. The pipeline delivers sub-millisecond latency. In real-robot water-pouring experiments, RadarEye achieves a 0.35 cm median absolute height error at 0.62 ms per update, substantially outperforming vision and ultrasound baselines.
- Abstract(参考訳): ロボットの注水における透明な液体操作は、スペクトル/屈折効果や光の変動が視覚的手がかりを低下させ、信頼性の高いレベル推定を損なうなど、認識システムにとって依然として困難である。
この課題に対処するため,実時間ミリ波レーダ信号処理パイプラインであるRadarEyeを導入する。
RadarEyeが統合
一 液体レベルのセンシング及び測定のための高分解能レンジアングルビームフォーミングモジュール
(II) ストリーム誘起クラッタおよびソース容器反射にもかかわらず, マルチパスが液体表面のロックを維持することを抑制した物理インフォームミドルポーアトラッカー。
パイプラインはミリ秒以下のレイテンシを提供する。
実際のロボットによる水位測定実験では、RadarEyeは0.35cmの絶対高度誤差を1回当たり0.62msで達成し、視力と超音波のベースラインを大きく上回っている。
関連論文リスト
- RadarXFormer: Robust Object Detection via Cross-Dimension Fusion of 4D Radar Spectra and Images for Autonomous Driving [28.09294325639777]
カメラとLiDARに基づく認識システムは、悪天候や照明条件下での性能劣化に悩まされる。
レーダビジョン融合は、ミリ波レーダの環境ロバスト性とコスト効率と、カメラが捉えたリッチなセマンティック情報を組み合わせることで、有望な代替手段を提供する。
本稿では、4DレーダスペクトルとRGB画像の効率的な相互融合を可能にする3Dオブジェクト検出フレームワークであるRadarXFormerを提案する。
論文 参考訳(メタデータ) (2026-03-16T04:56:37Z) - physfusion: A Transformer-based Dual-Stream Radar and Vision Fusion Framework for Open Water Surface Object Detection [3.3795150675738808]
PhysFusionは、水面知覚のための物理インフォームドレーダー画像検出フレームワークである。
物理インレーダ(PIR)とRCSマッパーと品質ゲートを統合し、ポイント当たりのレーダ特性をコンパクトな散乱前処理に変換する。
WaterScenesとFLOWの実験は、PhysFusionがWaterScenesで59.7% mAP50:95と90.3% mAP50を達成したことを示している。
論文 参考訳(メタデータ) (2026-03-02T15:00:22Z) - RadarGen: Automotive Radar Point Cloud Generation from Cameras [64.69976771710057]
マルチビューカメラ画像からリアルな自動車用レーダー点雲を合成するための拡散モデルRadarGenを提案する。
RadarGenは、鳥の目視でレーダー計測を表現することで、レーダ領域への効率的な画像遅延拡散を適応する。
本稿では,RadarGenが特徴的レーダ計測分布を捕捉し,実データに基づいて学習した知覚モデルとのギャップを小さくすることを示す。
論文 参考訳(メタデータ) (2025-12-19T18:57:33Z) - RadarMP: Motion Perception for 4D mmWave Radar in Autonomous Driving [13.045666013579732]
RadarMPは、2つの連続するフレームからの低レベルレーダエコー信号を用いた3次元映像の正確な映像知覚のための新しい手法である。
また,RadarMPは,様々な気象条件と照明条件にまたがって,信頼性の高い動作知覚を実現する。
論文 参考訳(メタデータ) (2025-11-15T09:09:29Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - TransRAD: Retentive Vision Transformer for Enhanced Radar Object Detection [6.163747364795787]
本稿では,新しい3次元レーダ物体検出モデルであるTransRADを提案する。
本研究では、ディープレーダオブジェクト検出における重複境界ボックスの共通問題を軽減するために、位置認識型NMSを提案する。
その結果,TransRADは2次元および3次元のレーダ検出タスクにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2025-01-29T20:21:41Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Enhanced Radar Perception via Multi-Task Learning: Towards Refined Data for Sensor Fusion Applications [6.237187007098249]
本研究は,3次元物体に関連付けられたレーダー点の高さを推定するための学習に基づくアプローチを導入する。
平均レーダー絶対高さ誤差は最先端高度法と比較して1.69mから0.25mに減少する。
論文 参考訳(メタデータ) (2024-04-09T09:42:18Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。