論文の概要: Olfactory Inertial Odometry: Sensor Calibration and Drift Compensation
- arxiv url: http://arxiv.org/abs/2506.04539v1
- Date: Thu, 05 Jun 2025 01:16:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.478181
- Title: Olfactory Inertial Odometry: Sensor Calibration and Drift Compensation
- Title(参考訳): 嗅性慣性オドメトリー:センサーの校正とドリフト補償
- Authors: Kordel K. France, Ovidiu Daescu, Anirban Paul, Shalini Prasad,
- Abstract要約: OIO(Olifactory inertial odometry)は、ガスセンサーからの信号を慣性データで融合して、ロボットが香りでナビゲートするのを助ける。
ガス力学と環境要因は、OIOの容易化を困難にする嗅覚的ナビゲーションタスクに障害をもたらす。
実際のロボットアーム上でのOIOキャリブレーションのプロセスを実演し、このキャリブレーションがコールドスタート嗅覚ナビゲーションタスクよりもパフォーマンスを向上することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual inertial odometry (VIO) is a process for fusing visual and kinematic data to understand a machine's state in a navigation task. Olfactory inertial odometry (OIO) is an analog to VIO that fuses signals from gas sensors with inertial data to help a robot navigate by scent. Gas dynamics and environmental factors introduce disturbances into olfactory navigation tasks that can make OIO difficult to facilitate. With our work here, we define a process for calibrating a robot for OIO that generalizes to several olfaction sensor types. Our focus is specifically on calibrating OIO for centimeter-level accuracy in localizing an odor source on a slow-moving robot platform to demonstrate use cases in robotic surgery and touchless security screening. We demonstrate our process for OIO calibration on a real robotic arm and show how this calibration improves performance over a cold-start olfactory navigation task.
- Abstract(参考訳): 視覚慣性オドメトリー (VIO) は、ナビゲーションタスクにおける機械の状態を理解するために、視覚的および運動的データを融合するプロセスである。
OIO(Ollfactory inertial odometry)は、ガスセンサーからの信号を慣性データで融合して、ロボットが香りでナビゲートするのを助ける、VIOのアナログである。
ガス力学と環境要因は、OIOの容易化を困難にする嗅覚的ナビゲーションタスクに障害をもたらす。
ここでは、OIOのためのロボットの校正プロセスを定義し、このプロセスは、複数の嗅覚センサータイプに一般化する。
我々の焦点は、ロボット手術やタッチレスセキュリティスクリーニングのユースケースを実証するために、ロボットプラットフォーム上で臭源をローカライズする、センチメートルレベルの精度でOIOを校正することである。
実際のロボットアーム上でのOIOキャリブレーションのプロセスを実演し、このキャリブレーションがコールドスタート嗅覚ナビゲーションタスクよりもパフォーマンスを向上することを示す。
関連論文リスト
- Olfactory Inertial Odometry: Methodology for Effective Robot Navigation by Scent [0.0]
嗅覚ナビゲーションは、生物が使用する探索の最も原始的なメカニズムの1つである。
本研究は,視覚慣性音韻法(VIO)に類似した嗅覚によるナビゲーションを可能にする嗅覚慣性音韻法(OIO)を定義する。
我々は、農業や食品品質管理における実際の応用に類似した、本物の5-DoFロボットアームに3つの異なるオドアローカライズアルゴリズムを用いて、オドアトラッキングシナリオを実証する。
論文 参考訳(メタデータ) (2025-06-03T02:21:12Z) - Diffusion Models for Increasing Accuracy in Olfaction Sensors and Datasets [0.0]
拡散型分子生成を用いた新しい機械学習手法を導入し,オーダローカライゼーションの精度を向上する。
本フレームワークは,ロボット上での嗅覚モデルにより,臭気を正しいソースと正確に関連付ける能力を高める。
論文 参考訳(メタデータ) (2025-05-31T08:22:09Z) - CaLiV: LiDAR-to-Vehicle Calibration of Arbitrary Sensor Setups via Object Reconstruction [0.8437187555622164]
自律システムでは、ダイナミック環境における安全で効率的なナビゲーションにはセンサキャリブレーションが不可欠である。
既存のLiDARキャリブレーション法の多くは、重なり合う視野を必要とするが、外部センサーデバイスを使ったり、機能豊富な環境を仮定するものもある。
本研究では,CaLiVと呼ばれるマルチLiDARシステムの外部センサ・センサ・センサ・バイヒクルキャリブレーションのための新しいターゲットベース手法を提案する。
このアルゴリズムは、重複しないFoVや任意のキャリブレーションターゲットに対して機能し、外部センサーデバイスを必要としない。
論文 参考訳(メタデータ) (2025-03-31T08:08:21Z) - Multimodal Anomaly Detection based on Deep Auto-Encoder for Object Slip
Perception of Mobile Manipulation Robots [22.63980025871784]
提案フレームワークは,RGBや深度カメラ,マイク,力トルクセンサなど,さまざまなロボットセンサから収集した異種データストリームを統合する。
統合されたデータは、ディープオートエンコーダを訓練して、通常の状態を示す多感覚データの潜在表現を構築するために使用される。
次に、トレーニングされたエンコーダの潜伏値と再構成された入力データの潜伏値との差によって測定された誤差スコアによって異常を識別することができる。
論文 参考訳(メタデータ) (2024-03-06T09:15:53Z) - Efficient Real-time Smoke Filtration with 3D LiDAR for Search and Rescue
with Autonomous Heterogeneous Robotic Systems [56.838297900091426]
スモークとダストは、搭載された知覚システムに依存するため、あらゆる移動ロボットプラットフォームの性能に影響を与える。
本稿では,重みと空間情報に基づく新しいモジュラー計算フィルタを提案する。
論文 参考訳(メタデータ) (2023-08-14T16:48:57Z) - Detection of Sensor-To-Sensor Variations using Explainable AI [2.2956649873563952]
化学抵抗性ガス検知装置は製造中のセンサの変動の問題に悩まされている。
本研究では、SHAP(SHAP)のAI(XAI)法を用いて、センサデバイスにおけるセンサとセンサの変動を検出する新しい手法を提案する。
本手法は,GRU(Gated Recurrent Unit)モデルをトレーニングするために,人工的および現実的なオゾン濃度プロファイルを用いて試験する。
論文 参考訳(メタデータ) (2023-06-19T11:00:54Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Visual-tactile sensing for Real-time liquid Volume Estimation in
Grasping [58.50342759993186]
変形性容器内の液体をリアルタイムに推定するためのビジュオ触覚モデルを提案する。
我々は、RGBカメラからの生の視覚入力と、特定の触覚センサーからの触覚手がかりの2つの感覚モードを融合する。
ロボットシステムは、推定モデルに基づいて、リアルタイムで適切に制御され、調整される。
論文 参考訳(メタデータ) (2022-02-23T13:38:31Z) - Bayesian Imitation Learning for End-to-End Mobile Manipulation [80.47771322489422]
RGB + 深度カメラのような追加のセンサー入力によるポリシーの強化は、ロボットの知覚能力を改善するための簡単なアプローチである。
畳み込みニューラルネットワークを正規化するために変分情報ボトルネックを用いることで、保持領域への一般化が向上することを示す。
提案手法は, シミュレーションと現実のギャップを埋めることと, RGBと奥行き変調をうまく融合できることを実証する。
論文 参考訳(メタデータ) (2022-02-15T17:38:30Z) - Real-time detection of uncalibrated sensors using Neural Networks [62.997667081978825]
オンライン学習に基づく温度・湿度・圧力センサの非校正検出装置を開発した。
このソリューションはニューラルネットワークをメインコンポーネントとして統合し、校正条件下でのセンサーの動作から学習する。
その結果, 提案手法は, 偏差値0.25度, 1% RH, 1.5Paの偏差をそれぞれ検出できることがわかった。
論文 参考訳(メタデータ) (2021-02-02T15:44:39Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。