論文の概要: Olfactory Inertial Odometry: Methodology for Effective Robot Navigation by Scent
- arxiv url: http://arxiv.org/abs/2506.02373v1
- Date: Tue, 03 Jun 2025 02:21:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 01:42:09.383976
- Title: Olfactory Inertial Odometry: Methodology for Effective Robot Navigation by Scent
- Title(参考訳): 嗅覚慣性オドメトリー:香りによる効果的なロボットナビゲーションの方法論
- Authors: Kordel K. France, Ovidiu Daescu,
- Abstract要約: 嗅覚ナビゲーションは、生物が使用する探索の最も原始的なメカニズムの1つである。
本研究は,視覚慣性音韻法(VIO)に類似した嗅覚によるナビゲーションを可能にする嗅覚慣性音韻法(OIO)を定義する。
我々は、農業や食品品質管理における実際の応用に類似した、本物の5-DoFロボットアームに3つの異なるオドアローカライズアルゴリズムを用いて、オドアトラッキングシナリオを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Olfactory navigation is one of the most primitive mechanisms of exploration used by organisms. Navigation by machine olfaction (artificial smell) is a very difficult task to both simulate and solve. With this work, we define olfactory inertial odometry (OIO), a framework for using inertial kinematics, and fast-sampling olfaction sensors to enable navigation by scent analogous to visual inertial odometry (VIO). We establish how principles from SLAM and VIO can be extrapolated to olfaction to enable real-world robotic tasks. We demonstrate OIO with three different odour localization algorithms on a real 5-DoF robot arm over an odour-tracking scenario that resembles real applications in agriculture and food quality control. Our results indicate success in establishing a baseline framework for OIO from which other research in olfactory navigation can build, and we note performance enhancements that can be made to address more complex tasks in the future.
- Abstract(参考訳): 嗅覚ナビゲーションは、生物が使用する探索の最も原始的なメカニズムの1つである。
機械の嗅覚によるナビゲーション(人工臭い)は、シミュレートと解決の両方を行うのが非常に難しい作業である。
本研究は、慣性運動学(inertial kinematics)のフレームワークである嗅覚性慣性計測(OIO)と、視覚的慣性計測(visual inertial odometry, VIO)に類似した嗅覚によるナビゲーションを可能にする高速サンプリング型嗅覚センサを定義する。
SLAMとVIOの原理を、現実のロボットタスクを可能にするために、オオアクションにどのように外挿するかを確立する。
我々は、農業や食品品質管理における実際の応用に類似した、本物の5-DoFロボットアームに3つの異なるオドアローカライズアルゴリズムを用いて、オドアトラッキングシナリオを実証する。
以上の結果から,嗅覚ナビゲーションの他の研究が構築できるOIOのベースラインフレームワークの確立の成功が示唆された。
関連論文リスト
- EDEN: Entorhinal Driven Egocentric Navigation Toward Robotic Deployment [1.5190286092106713]
EDENは生物学的にインスパイアされたナビゲーションフレームワークで、学習したエントルヒンナル様のグリッド細胞表現と強化学習を統合し、自律的なナビゲーションを可能にする。
EDENは哺乳類の角膜-海馬システムにインスパイアされ、視覚とモーションセンサーのデータを使用して、経路統合とベクターベースのナビゲーションを行うことができる。
論文 参考訳(メタデータ) (2025-06-03T16:28:33Z) - Diffusion Models for Increasing Accuracy in Olfaction Sensors and Datasets [0.0]
拡散型分子生成を用いた新しい機械学習手法を導入し,オーダローカライゼーションの精度を向上する。
本フレームワークは,ロボット上での嗅覚モデルにより,臭気を正しいソースと正確に関連付ける能力を高める。
論文 参考訳(メタデータ) (2025-05-31T08:22:09Z) - ForesightNav: Learning Scene Imagination for Efficient Exploration [57.49417653636244]
人間の想像力と推論に触発された新しい探索戦略であるForesightNavを提案する。
提案手法は,ロボットエージェントに,未探索領域の占有状況や意味的詳細などの文脈情報を予測する能力を備える。
本研究では,Structured3Dデータセットを用いた想像力に基づくアプローチの有効性を検証し,シーン形状の予測において,正確な占有率予測と優れた性能を示す。
論文 参考訳(メタデータ) (2025-04-22T17:38:38Z) - CogNav: Cognitive Process Modeling for Object Goal Navigation with LLMs [33.123447047397484]
オブジェクトゴールナビゲーション(Object goal navigation、ObjectNav)は、AIの具体化における基本的なタスクであり、エージェントが以前目に見えない環境でターゲットオブジェクトを見つける必要がある。
大規模言語モデルを用いた認知過程の模倣を目的としたフレームワークであるCogNavを提案する。
CogNavは、少なくとも最先端技術に比べて、ObjectNavの成功率を14%向上させる。
論文 参考訳(メタデータ) (2024-12-11T09:50:35Z) - A transformer-based deep reinforcement learning approach to spatial navigation in a partially observable Morris Water Maze [0.0]
この研究は、モリス水迷路の2次元バージョンをナビゲートするために、深い強化学習を用いたトランスフォーマーベースのアーキテクチャを適用した。
提案アーキテクチャにより,エージェントが空間ナビゲーション戦略を効率的に学習できることを実証する。
この研究は、生物エージェントに類似した振る舞いを持つ人工エージェントの今後の研究への道のりを示唆している。
論文 参考訳(メタデータ) (2024-10-01T13:22:56Z) - Efficient Real-time Smoke Filtration with 3D LiDAR for Search and Rescue
with Autonomous Heterogeneous Robotic Systems [56.838297900091426]
スモークとダストは、搭載された知覚システムに依存するため、あらゆる移動ロボットプラットフォームの性能に影響を与える。
本稿では,重みと空間情報に基づく新しいモジュラー計算フィルタを提案する。
論文 参考訳(メタデータ) (2023-08-14T16:48:57Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Virtual Reality via Object Poses and Active Learning: Realizing
Telepresence Robots with Aerial Manipulation Capabilities [39.29763956979895]
本稿では,動的・非構造環境下での空中操作を進展させる新しいテレプレゼンスシステムを提案する。
提案システムは触覚デバイスだけでなく、ロボットのワークスペースのリアルタイム3Dディスプレイを提供する仮想現実(VR)インターフェースも備えている。
DLRケーブル・サスペンド・エアリアルマニピュレータ(SAM)によるピック・アンド・プレイス、フォース・アプリケーション、ペグ・イン・ホールの70以上の堅牢な実行を示す。
論文 参考訳(メタデータ) (2022-10-18T08:42:30Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。