論文の概要: Object segmentation in the wild with foundation models: application to vision assisted neuro-prostheses for upper limbs
- arxiv url: http://arxiv.org/abs/2507.18517v1
- Date: Thu, 24 Jul 2025 15:40:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:43.927132
- Title: Object segmentation in the wild with foundation models: application to vision assisted neuro-prostheses for upper limbs
- Title(参考訳): 基礎モデルを用いた野生動物における物体のセグメンテーション:上肢の視覚支援型神経補綴への応用
- Authors: Bolutife Atoki, Jenny Benois-Pineau, Renaud Péteri, Fabien Baldacci, Aymar de Rugy,
- Abstract要約: 本研究では,多種多様な対象に対して訓練された基礎モデルを用いて,日常的な対象を含む特定のイメージを微調整することなく,対象のセグメンテーションを行うことができるかどうかを検討する。
本稿では,視線修正に基づくプロンプト生成手法を提案し,セグメンテーションシナリオにおけるセグメンション・アロシング・モデル(SAM)を導出する。
IoUセグメンテーションの品質指標は, 実世界のグラスピング・イン・ザ・ワイヤードコーパスの課題データから最大0.01ポイント向上した。
- 参考スコア(独自算出の注目度): 2.7554193753662015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we address the problem of semantic object segmentation using foundation models. We investigate whether foundation models, trained on a large number and variety of objects, can perform object segmentation without fine-tuning on specific images containing everyday objects, but in highly cluttered visual scenes. The ''in the wild'' context is driven by the target application of vision guided upper limb neuroprostheses. We propose a method for generating prompts based on gaze fixations to guide the Segment Anything Model (SAM) in our segmentation scenario, and fine-tune it on egocentric visual data. Evaluation results of our approach show an improvement of the IoU segmentation quality metric by up to 0.51 points on real-world challenging data of Grasping-in-the-Wild corpus which is made available on the RoboFlow Platform (https://universe.roboflow.com/iwrist/grasping-in-the-wild)
- Abstract(参考訳): 本研究では,基礎モデルを用いたセマンティックオブジェクトセグメンテーションの問題に対処する。
本研究では,多種多様な物体に基づいて訓練された基礎モデルを用いて,日常的な物体を含む特定の画像の微調整を行うことなく,物体のセグメンテーションを行うことができるかどうかを,高度に散らばった視覚シーンにおいて検討する。
in the wild'コンテキストは視覚誘導下肢神経補綴の標的応用によって駆動される。
本稿では、視線修正に基づくプロンプト生成手法を提案し、セグメンテーションシナリオにおけるセグメンション・アシング・モデル(SAM)を誘導し、エゴセントリックな視覚データに基づいて微調整する。
提案手法の評価結果は,RoboFlow Platform (https://universe.roboflow.com/iwrist/grasping-in-the-wild) で公開されている実世界のGrasping-in-the-Wildコーパスにおいて,最大0.01ポイントのIoUセグメンテーション品質測定値の改善を示す。
関連論文リスト
- Visual Context-Aware Person Fall Detection [52.49277799455569]
画像中の個人とオブジェクトを半自動分離するセグメンテーションパイプラインを提案する。
ベッド、椅子、車椅子などの背景オブジェクトは、転倒検知システムに挑戦し、誤ったポジティブアラームを引き起こす。
トレーニング中のオブジェクト固有のコンテキスト変換が、この課題を効果的に軽減することを示す。
論文 参考訳(メタデータ) (2024-04-11T19:06:36Z) - Explore In-Context Segmentation via Latent Diffusion Models [132.26274147026854]
インコンテキストセグメンテーションは、与えられた参照画像を使ってオブジェクトをセグメンテーションすることを目的としている。
既存のほとんどのアプローチでは、視覚的プロンプトと入力画像クエリの相関を構築するために、メトリックラーニングやマスク付きイメージモデリングを採用しています。
この研究は、新しい視点から問題にアプローチし、コンテキスト内セグメンテーションのための潜在拡散モデルの能力を解き放つ。
論文 参考訳(メタデータ) (2024-03-14T17:52:31Z) - Annotation Free Semantic Segmentation with Vision Foundation Models [11.026377387506216]
既存の基盤モデルを用いて,任意のセマンティックセグメンテーションデータセットに対してフリーアノテーションを生成する。
CLIPを使ってオブジェクトとSAMを検出し、高品質なオブジェクトマスクを生成します。
我々のアプローチは、最小限のトレーニングで事前訓練された視覚エンコーダに言語ベースのセマンティクスをもたらすことができる。
論文 参考訳(メタデータ) (2024-03-14T11:57:58Z) - Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - Labeling Indoor Scenes with Fusion of Out-of-the-Box Perception Models [4.157013247909771]
ボトムアップセグメンテーション(SAM)、オブジェクト検出(Detic)、セマンティックセグメンテーション(MaskFormer)の最先端モデルを活用することを提案する。
室内環境におけるセマンティックセグメンテーションとオブジェクトインスタンス検出のための擬似ラベルを得るための,コスト効率の高いラベリング手法を開発することを目的とする。
提案手法の有効性を,Active VisionデータセットとADE20Kデータセットに示す。
論文 参考訳(メタデータ) (2023-11-17T21:58:26Z) - LOCATE: Self-supervised Object Discovery via Flow-guided Graph-cut and
Bootstrapped Self-training [13.985488693082981]
動作情報と外観情報を利用して高品質な物体分割マスクを生成する自己教師型物体発見手法を提案する。
複数の標準ビデオオブジェクトセグメンテーション、画像のサリエンシ検出、オブジェクトセグメンテーションベンチマークにおいて、LOCATEと呼ばれるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-08-22T07:27:09Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - DyStaB: Unsupervised Object Segmentation via Dynamic-Static
Bootstrapping [72.84991726271024]
我々は,コヒーレントなシーン全体を移動しているように見えるシーンの画像の一部を検出し,分割するための教師なしの手法について述べる。
提案手法はまず,セグメント間の相互情報を最小化することにより,運動場を分割する。
セグメントを使用してオブジェクトモデルを学習し、静的なイメージの検出に使用することができる。
論文 参考訳(メタデータ) (2020-08-16T22:05:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。