論文の概要: An Efficient Insect-inspired Approach for Visual Point-goal Navigation
- arxiv url: http://arxiv.org/abs/2601.16806v1
- Date: Fri, 23 Jan 2026 14:57:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.733396
- Title: An Efficient Insect-inspired Approach for Visual Point-goal Navigation
- Title(参考訳): 視覚的ポイントゴールナビゲーションのための効率的な昆虫インスパイアされたアプローチ
- Authors: Lu Yihe, Barbara Webb,
- Abstract要約: 視覚的ポイントゴールナビゲーションのための新規な昆虫刺激剤を開発した。
これは、それぞれ、連想学習と経路統合に関係している2つの昆虫の脳構造を抽象化したモデルを組み合わせる。
本研究は,最近のSOTAモデルに匹敵する性能を,数桁の計算コストで実現できることを実証する。
- 参考スコア(独自算出の注目度): 0.6445605125467574
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this work we develop a novel insect-inspired agent for visual point-goal navigation. This combines abstracted models of two insect brain structures that have been implicated, respectively, in associative learning and path integration. We draw an analogy between the formal benchmark of the Habitat point-goal navigation task and the ability of insects to learn and refine visually guided paths around obstacles between a discovered food location and their nest. We demonstrate that the simple insect-inspired agent exhibits performance comparable to recent SOTA models at many orders of magnitude less computational cost. Testing in a more realistic simulated environment shows the approach is robust to perturbations.
- Abstract(参考訳): 本研究は,視覚的ポイントゴールナビゲーションのための新規な昆虫刺激剤の開発である。
これは、それぞれ、連想学習と経路統合に関係している2つの昆虫の脳構造を抽象化したモデルを組み合わせる。
本研究では,ハビタット・ポイントゴール・ナビゲーション・タスクの正式なベンチマークと,発見された食品の位置と巣の間の障害物周辺の視覚的に案内された経路を学習・洗練する昆虫の能力の類似性について述べる。
本研究は,最近のSOTAモデルに匹敵する性能を,数桁の計算コストで実現できることを実証する。
より現実的なシミュレートされた環境でのテストは、アプローチが摂動に対して堅牢であることを示している。
関連論文リスト
- Insect-Foundation: A Foundation Model and Large Multimodal Dataset for Vision-Language Insect Understanding [15.383106771910274]
本稿では,昆虫ドメイン知識の視覚的理解を促進するために,新しい多モード対話モデルInsect-LLaVAを提案する。
提案したデータセットにより,昆虫の視覚的特徴と意味的特徴を理解することができる。
我々は,Patch-wise Relevant Attention(パッチワイド・レバレント・アテンション)機構を備えた,新しいマイクロ機能自己教師型学習を導入することで,Insect Foundation Modelを開発する。
論文 参考訳(メタデータ) (2025-02-14T04:29:17Z) - Learning Dynamic Cognitive Map with Autonomous Navigation [8.301959009586861]
生物にインスパイアされた原理に根ざした空間をナビゲートし、マッピングするための新しい計算モデルを導入する。
我々のモデルは、予測されたポーズに対する動的に拡大する認知マップをActive Inferenceフレームワークに組み込んでいる。
我々のモデルは、観測と世界次元に関する事前の知識なしにこれを達成し、複雑な環境をナビゲートする際の頑丈さと有効性を裏付ける。
論文 参考訳(メタデータ) (2024-11-13T08:59:53Z) - Exploring and Learning Structure: Active Inference Approach in Navigational Agents [8.301959009586861]
動物は記憶、想像力、戦略的な意思決定を効率的に利用することで優れたナビゲーション能力を示す。
生物にインスパイアされた原理に根ざしたナビゲーションとマッピングのための新しい計算モデルを導入する。
論文 参考訳(メタデータ) (2024-08-12T08:17:14Z) - Insect-Foundation: A Foundation Model and Large-scale 1M Dataset for Visual Insect Understanding [15.383106771910274]
現在のマシンビジョンモデルは、高性能を達成するために大量のデータを必要とする。
Insect-1M"データセットは,昆虫に関する基礎モデルトレーニングに革命をもたらすことを意図したゲーム変更リソースである。
私たちのデータセットは、昆虫の幅広い範囲をカバーしており、100万枚の画像を含む分類分類階層と昆虫の記載の密度の高い識別ラベルは、昆虫学のパノラマ的なビューを提供する。
論文 参考訳(メタデータ) (2023-11-26T06:17:29Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - Rapid Exploration for Open-World Navigation with Latent Goal Models [78.45339342966196]
多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z) - Neural Topological SLAM for Visual Navigation [112.73876869904]
意味論を生かし、近似幾何学的推論を行う空間のトポロジ的表現を設計する。
本稿では,ノイズのあるアクティベーションの下でそのような表現を構築し,維持し,使用することができる教師付き学習ベースアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2020-05-25T17:56:29Z) - Deformation-aware Unpaired Image Translation for Pose Estimation on
Laboratory Animals [56.65062746564091]
我々は,神経回路が行動をどのようにオーケストレーションするかを研究するために,手動による監督を使わずに,神経科学モデル生物のポーズを捉えることを目的としている。
我々の重要な貢献は、未完成の画像翻訳フレームワークにおける外観、形状、ポーズの明示的で独立したモデリングである。
ショウジョウバエ(ハエ)、線虫(線虫)、ダニオ・レリオ(ゼブラフィッシュ)のポーズ推定精度の向上を実証した。
論文 参考訳(メタデータ) (2020-01-23T15:34:11Z) - Counterfactual Vision-and-Language Navigation via Adversarial Path Sampling [65.99956848461915]
VLN(Vision-and-Language Navigation)は、エージェントが目標を達成するために3D環境を移動する方法を決定するタスクである。
VLNタスクの問題点の1つは、対話型環境において、人間に注釈を付けた指示で十分なナビゲーションパスを収集することは困難であるため、データの不足である。
本稿では,低品質な拡張データではなく,効果的な条件を考慮可能な,対向駆動の反実的推論モデルを提案する。
論文 参考訳(メタデータ) (2019-11-17T18:02:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。