論文の概要: HideAndSeg: an AI-based tool with automated prompting for octopus segmentation in natural habitats
- arxiv url: http://arxiv.org/abs/2511.04426v1
- Date: Thu, 06 Nov 2025 14:59:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.462402
- Title: HideAndSeg: an AI-based tool with automated prompting for octopus segmentation in natural habitats
- Title(参考訳): HideAndSeg:自然の生息地におけるタコのセグメンテーションを自動でプロンプトするAIツール
- Authors: Alan de Aguiar, Michaella Pereira Andrade, Charles Morphy D. Santos, João Paulo Gois,
- Abstract要約: HideAndSegは、タコのビデオのセグメンテーションのための、最小限の教師付きAIベースのツールだ。
SAM2とカスタムトレーニングされたYOLOv11オブジェクト検出器を統合している。
結果から,HieAndSegは手動によるアプローチに比べてセグメンテーションノイズを低減できることがわかった。
- 参考スコア(独自算出の注目度): 0.27998963147546135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Analyzing octopuses in their natural habitats is challenging due to their camouflage capability, rapid changes in skin texture and color, non-rigid body deformations, and frequent occlusions, all of which are compounded by variable underwater lighting and turbidity. Addressing the lack of large-scale annotated datasets, this paper introduces HideAndSeg, a novel, minimally supervised AI-based tool for segmenting videos of octopuses. It establishes a quantitative baseline for this task. HideAndSeg integrates SAM2 with a custom-trained YOLOv11 object detector. First, the user provides point coordinates to generate the initial segmentation masks with SAM2. These masks serve as training data for the YOLO model. After that, our approach fully automates the pipeline by providing a bounding box prompt to SAM2, eliminating the need for further manual intervention. We introduce two unsupervised metrics - temporal consistency $DICE_t$ and new component count $NC_t$ - to quantitatively evaluate segmentation quality and guide mask refinement in the absence of ground-truth data, i.e., real-world information that serves to train, validate, and test AI models. Results show that HideAndSeg achieves satisfactory performance, reducing segmentation noise compared to the manually prompted approach. Our method can re-identify and segment the octopus even after periods of complete occlusion in natural environments, a scenario in which the manually prompted model fails. By reducing the need for manual analysis in real-world scenarios, this work provides a practical tool that paves the way for more efficient behavioral studies of wild cephalopods.
- Abstract(参考訳): 自然の生息地におけるタコの分析は、カモフラージュ能力、皮膚のテクスチャと色の変化、非剛体変形、頻繁なオクルージョンにより困難であり、これらは全て水中の様々な照明と濁りによって合成される。
大規模アノテートデータセットの欠如に対処するため、この論文では、タコのビデオのセグメンテーションを行うための、最小限の教師付きAIベースのツールであるHieAndSegを紹介する。
このタスクの定量的なベースラインを確立します。
HideAndSegはSAM2とカスタムトレーニングされたYOLOv11オブジェクト検出器を統合している。
まず、SAM2で初期セグメンテーションマスクを生成するためのポイント座標を提供する。
これらのマスクは、YOLOモデルのトレーニングデータとして機能する。
その後、我々のアプローチはSAM2にバウンディングボックスプロンプトを提供することでパイプラインを完全に自動化し、さらに手動で介入する必要がなくなる。
時間的一貫性の$DICE_t$と新しいコンポーネントの$NC_t$を導入し、AIモデルをトレーニング、検証、テストする実世界のデータがない場合に、セグメンテーション品質とガイドマスクの洗練を定量的に評価する。
結果から,HieAndSegは手動によるアプローチに比べてセグメンテーションノイズを低減できることがわかった。
本手法は,自然環境下での完全閉塞状態においても,手動で誘導したモデルが失敗するシナリオであるタコを再同定し,分類することができる。
現実世界のシナリオで手動で分析する必要性を減らすことで、この研究は野生の頭足類のより効率的な行動研究の道を開く実用的なツールを提供する。
関連論文リスト
- SparseUWSeg: Active Sparse Point-Label Augmentation for Underwater Semantic Segmentation [5.595626117136082]
セマンティックセグメンテーションのための新しいフレームワークであるSparseUWSegを紹介する。
SparseUWSegは、アノテータを誘導し、ポイントラベルの価値を最大化するアクティブサンプリング戦略を採用している。
2つの多様な水中データセットの実験は、最先端アプローチに対するSparseUWSegの利点を示している。
論文 参考訳(メタデータ) (2025-10-11T10:56:48Z) - Bridge the Points: Graph-based Few-shot Segment Anything Semantically [79.1519244940518]
プレトレーニング技術の最近の進歩により、視覚基礎モデルの能力が向上した。
最近の研究はSAMをFew-shot Semantic segmentation (FSS)に拡張している。
本稿では,グラフ解析に基づく簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-09T15:02:28Z) - Adapting Segment Anything Model for Unseen Object Instance Segmentation [70.60171342436092]
Unseen Object Instance(UOIS)は、非構造環境で動作する自律ロボットにとって不可欠である。
UOISタスクのためのデータ効率のよいソリューションであるUOIS-SAMを提案する。
UOIS-SAMは、(i)HeatmapベースのPrompt Generator(HPG)と(ii)SAMのマスクデコーダに適応する階層識別ネットワーク(HDNet)の2つの重要なコンポーネントを統合する。
論文 参考訳(メタデータ) (2024-09-23T19:05:50Z) - Semi-supervised Open-World Object Detection [74.95267079505145]
半教師付きオープンワールド検出(SS-OWOD)という,より現実的な定式化を導入する。
提案したSS-OWOD設定では,最先端OWOD検出器の性能が劇的に低下することが実証された。
我々は,MS COCO, PASCAL, Objects365, DOTAの4つのデータセットを用いた実験を行い, 提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-02-25T07:12:51Z) - Weakly Supervised Semantic Segmentation for Driving Scenes [27.0285166404621]
弱教師付きセマンティックセグメンテーション(WSSS)における最先端技術は、駆動シーンデータセットに深刻な性能劣化を示す。
シーンデータセットの駆動に適した新しいWSSSフレームワークを開発した。
論文 参考訳(メタデータ) (2023-12-21T08:16:26Z) - Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - A Tri-Layer Plugin to Improve Occluded Detection [100.99802831241583]
本研究では,2段階物体検出装置の頭部検出のための単純な''モジュールを提案し,部分閉塞物体のリコールを改善する。
モジュールは、ターゲットオブジェクト、オクルーダー、オクラデーのセグメンテーションマスクの三層を予測し、それによってターゲットオブジェクトのマスクをより正確に予測することができる。
また,COCO評価データセットを構築し,部分閉塞オブジェクトと分離オブジェクトのリコール性能を測定した。
論文 参考訳(メタデータ) (2022-10-18T17:59:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。