論文の概要: Autonomous Search for Sparsely Distributed Visual Phenomena through Environmental Context Modeling
- arxiv url: http://arxiv.org/abs/2603.10174v1
- Date: Tue, 10 Mar 2026 19:11:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:42.17888
- Title: Autonomous Search for Sparsely Distributed Visual Phenomena through Environmental Context Modeling
- Title(参考訳): 環境文脈モデリングによる疎分散視覚現象の自動探索
- Authors: Eric Chen, Travis Manderson, Nare Karapetyan, Peter Edmunds, Nicholas Roy, Yogesh Girdhar,
- Abstract要約: AUVはサンゴ礁の調査にますます使われているが、特定のサンゴの種を効率的に見つけることは依然として困難である。
我々は、その信号として視覚環境コンテキスト(標的種と共生する傾向がある生息環境特徴)を用いることを提案する。
我々は,アメリカ領ヴァージン諸島セントジョンの2つのサンゴ礁でAUVが収集した実際の画像を用いて,我々のアプローチを検証する。
- 参考スコア(独自算出の注目度): 19.849681217543036
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous underwater vehicles (AUVs) are increasingly used to survey coral reefs, yet efficiently locating specific coral species of interest remains difficult: target species are often sparsely distributed across the reef, and an AUV with limited battery life cannot afford to search everywhere. When detections of the target itself are too sparse to provide directional guidance, the robot benefits from an additional signal to decide where to look next. We propose using the visual environmental context -- the habitat features that tend to co-occur with a target species -- as that signal. Because context features are spatially denser and often vary more smoothly than target detections, we hypothesize that a reward function targeted at broader environmental context will enable adaptive planners to make better decisions on where to go next, even in regions where no target has yet been observed. Starting from a single labeled image, our method uses patch-level DINOv2 embeddings to perform one-shot detections of both the target species and its surrounding context online. We validate our approach using real imagery collected by an AUV at two reef sites in St. John, U.S. Virgin Islands, simulating the robot's motion offline. Our results demonstrate that one-shot detection combined with adaptive context modeling enables efficient autonomous surveying, sampling up to 75$\%$ of the target in roughly half the time required by exhaustive coverage when the target is sparsely distributed, and outperforming search strategies that only use target detections.
- Abstract(参考訳): 自律型水中車両(AUV)はサンゴ礁の調査にますます使われているが、特定のサンゴ種を効率よく見つけることは難しい。
目標自体の検知が不十分で方向案内ができない場合、ロボットは次に見る場所を決定するために追加の信号の恩恵を受ける。
我々は、その信号として視覚環境コンテキスト(標的種と共生する傾向がある生息環境特徴)を用いることを提案する。
空間的特徴はターゲット検出よりもスムースに変化することが多いため、より広い環境コンテキストを対象とする報酬関数が、目標がまだ観測されていない地域であっても、適応的なプランナーが次に行くべき場所をよりよく決定できる、という仮説を立てる。
本手法は,単一のラベル付き画像から,パッチレベルのDINOv2埋め込みを用いて,対象種とその周辺状況のワンショット検出を行う。
我々は、アメリカ領ヴァージン諸島セントジョンの2つのサンゴ礁でAUVが収集した実際の画像を用いて、ロボットの動きをシミュレーションし、我々のアプローチを検証する。
適応型文脈モデルと組み合わせたワンショット検出により、効率的な自律的なサーベイが可能であり、目標をわずかに分散させた場合の網羅的カバレッジに要する時間のうち75$\%以上をサンプリングし、目標検出のみを使用する検索戦略より優れていることを示す。
関連論文リスト
- Hierarchical Multi-Modal Planning for Fixed-Altitude Sparse Target Search and Sampling [8.90200464018944]
HIMoSはサンゴの探索とサンプルの分離のための固定高度フレームワークである。
システムは、異質なセンサースイートを2層計画アーキテクチャに統合する。
論文 参考訳(メタデータ) (2026-03-09T12:53:04Z) - Zero-shot HOI Detection with MLLM-based Detector-agnostic Interaction Recognition [71.5328300638085]
Zero-shot Human-Object Interaction (HOI) は、画像中の人間と物体を特定し、その相互作用を認識することを目的としている。
2段階法を含む既存の手法は、特定の検出器との相互作用認識を密に結合する。
本稿では、オブジェクト検出をIRから分離し、マルチモーダル大言語モデル(MLLM)をゼロショットIRに活用する分離フレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-16T19:01:31Z) - Re-Identifying Kākā with AI-Automated Video Key Frame Extraction [0.0]
本研究では,k=ak=a(Nestor meridionalis)のビデオから高品質なキーフレームを抽出するためのユニークなパイプラインを提案する。
カスタムフィードの映像記録を用いて,キーフレームを抽出し,パイプラインの再同定性能を評価する。
その結果,提案手法では,k=ak=a再同定において高い精度で画像収集を行うことができた。
論文 参考訳(メタデータ) (2025-10-09T19:46:46Z) - NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - GOMAA-Geo: GOal Modality Agnostic Active Geo-localization [49.599465495973654]
エージェントが空中ナビゲーション中に観測された一連の視覚的手がかりを用いて、複数の可能なモダリティによって特定されたターゲットを見つけるという、アクティブなジオローカライゼーション(AGL)の課題を考察する。
GOMAA-Geo は、ゴールモダリティ間のゼロショット一般化のためのゴールモダリティアクティブなジオローカライゼーションエージェントである。
論文 参考訳(メタデータ) (2024-06-04T02:59:36Z) - Synthetic Aperture Sensing for Occlusion Removal with Drone Swarms [4.640835690336653]
我々は、密集した森林地帯において、密集した目標を検出し、追跡する上で、自律型ドローン群がいかに効率的かを実証する。
閉塞密度や目標視斜視といった局所的な観測条件の探索と最適化は、従来のブラインドサンプリング戦略よりもはるかに高速で信頼性の高い結果を提供する。
論文 参考訳(メタデータ) (2022-12-30T13:19:15Z) - Reinforcement Learning for Agile Active Target Sensing with a UAV [10.070339628481445]
本稿では,情報トラジェクトリを計画するための深層強化学習手法を開発する。
ターゲット状態に対する現在の信念を活用し、高忠実度分類のための不正確なセンサーモデルを含む。
提案手法の特異な特徴は,真の目標分布から様々な量の偏差が生じることにある。
論文 参考訳(メタデータ) (2022-12-16T01:01:17Z) - Unsupervised Foggy Scene Understanding via Self Spatial-Temporal Label
Diffusion [51.11295961195151]
運転シーンの霧画像列の特徴を利用して、自信ある擬似ラベルを密度化する。
局所的な空間的類似性と逐次画像データの隣接時間対応の2つの発見に基づいて,新たなターゲット・ドメイン駆動擬似ラベル拡散方式を提案する。
本手法は,2つの天然霧のデータセット上で51.92%,53.84%の平均交叉結合(mIoU)を達成するのに有効である。
論文 参考訳(メタデータ) (2022-06-10T05:16:50Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z) - Scope Head for Accurate Localization in Object Detection [135.9979405835606]
本研究では,各位置のアンカーを相互依存関係としてモデル化したScopeNetと呼ばれる新しい検出器を提案する。
我々の簡潔で効果的な設計により、提案したScopeNetはCOCOの最先端の成果を達成する。
論文 参考訳(メタデータ) (2020-05-11T04:00:09Z) - Reinforcement Learning for UAV Autonomous Navigation, Mapping and Target
Detection [36.79380276028116]
本研究では,無人航空機(UAV)に低高度レーダーを装備し,未知の環境下での飛行における共同検出・マッピング・ナビゲーション問題について検討する。
目的は、マッピング精度を最大化する目的で軌道を最適化することであり、目標検出の観点からは、測定が不十分な領域を避けることである。
論文 参考訳(メタデータ) (2020-05-05T20:39:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。