論文の概要: Segment Anything Model (SAM) Meets Glass: Mirror and Transparent Objects
Cannot Be Easily Detected
- arxiv url: http://arxiv.org/abs/2305.00278v1
- Date: Sat, 29 Apr 2023 15:27:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 16:01:26.907153
- Title: Segment Anything Model (SAM) Meets Glass: Mirror and Transparent Objects
Cannot Be Easily Detected
- Title(参考訳): segment anything model (sam)がガラスを満たす - 鏡や透明な物体は容易に検出できない
- Authors: Dongsheng Han, Chaoning Zhang, Yu Qiao, Maryam Qamar, Yuna Jung,
SeungKyu Lee, Sung-Ho Bae, Choong Seon Hong
- Abstract要約: コンピュータビジョンの基礎モデルとしてSAM (Segment Anything Model) が注目されている。
幅広いゼロショット転送タスクの強い能力にもかかわらず、SAMが透明なオブジェクトのような挑戦的なセットアップで何かを検出できるかどうかは不明だ。
- 参考スコア(独自算出の注目度): 41.04927631258873
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Meta AI Research has recently released SAM (Segment Anything Model) which is
trained on a large segmentation dataset of over 1 billion masks. As a
foundation model in the field of computer vision, SAM (Segment Anything Model)
has gained attention for its impressive performance in generic object
segmentation. Despite its strong capability in a wide range of zero-shot
transfer tasks, it remains unknown whether SAM can detect things in challenging
setups like transparent objects. In this work, we perform an empirical
evaluation of two glass-related challenging scenarios: mirror and transparent
objects. We found that SAM often fails to detect the glass in both scenarios,
which raises concern for deploying the SAM in safety-critical situations that
have various forms of glass.
- Abstract(参考訳): meta ai researchが先日リリースしたsam(segment anything model)は、10億以上のマスクからなる大規模なセグメンテーションデータセットでトレーニングされている。
コンピュータビジョンの分野での基礎モデルとして、sam(segment anything model)は汎用オブジェクトセグメンテーションにおける印象的なパフォーマンスで注目を集めている。
幅広いゼロショット転送タスクの強い能力にもかかわらず、SAMが透明なオブジェクトのような挑戦的なセットアップで何かを検出できるかどうかは不明だ。
本研究では,鏡と透明物体の2つのガラス関連課題を実証的に評価する。
SAMは両方のシナリオでガラスの検出に失敗することが多く、様々な形態のガラスを持つ安全クリティカルな状況においてSAMをデプロイすることを懸念する。
関連論文リスト
- Moving Object Segmentation: All You Need Is SAM (and Flow) [82.78026782967959]
SAMのセグメンテーション能力と移動物体の発見・グループ化能力を利用する光フローとSAMを組み合わせた2つのモデルについて検討する。
第1のモデルでは、RGBではなく光の流れを入力としてSAMに適応させ、第2のモデルではRGBを入力として、フローをセグメント化プロンプトとして使用する。
これらの驚くほど単純な方法は、追加の修正なしに、シングルオブジェクトとマルチオブジェクトのベンチマークにおいて、以前のアプローチをかなり上回っている。
論文 参考訳(メタデータ) (2024-04-18T17:59:53Z) - Boosting Segment Anything Model Towards Open-Vocabulary Learning [69.42565443181017]
Segment Anything Model (SAM)は、新しいパラダイムビジョン基盤モデルとして登場した。
SAMは様々な領域で応用や適応を発見できるが、その主な制限はオブジェクトの意味を把握できないことである。
我々は,SAMとオープン語彙オブジェクト検出器をエンドツーエンドフレームワークでシームレスに統合するSamborを提案する。
論文 参考訳(メタデータ) (2023-12-06T17:19:00Z) - On the Robustness of Segment Anything [46.669794757467166]
我々は, SAMの試験時間ロバスト性について, 敵のシナリオと共通の腐敗下で検討することを目的としている。
SAMは、ぼやけた汚職を除いて、様々な汚職に対して顕著な堅牢性を示す。
論文 参考訳(メタデータ) (2023-05-25T16:28:30Z) - A Survey on Segment Anything Model (SAM): Vision Foundation Model Meets
Prompt Engineering [37.68799208121957]
Meta AI Researchが開発したSegment Any Model(SAM)が注目されている。
関連論文やプロジェクトが指数関数的に増加する中、読者がSAMの開発に追いつくことは困難である。
この研究はSAMに関する最初の包括的調査を実施している。
論文 参考訳(メタデータ) (2023-05-12T07:21:59Z) - Attack-SAM: Towards Attacking Segment Anything Model With Adversarial
Examples [68.5719552703438]
Segment Anything Model (SAM) は、様々なダウンストリームタスクにおける印象的なパフォーマンスのために、最近大きな注目を集めている。
深い視覚モデルは敵の例に弱いと広く認識されており、それはモデルを騙して知覚不能な摂動で間違った予測をする。
この研究は、SAMの攻撃方法に関する総合的な調査を敵対的な例で実施した最初のものである。
論文 参考訳(メタデータ) (2023-05-01T15:08:17Z) - Segment anything, from space? [8.126645790463266]
SAM(Segment Anything Model)は、安価な入力プロンプトに基づいて、入力画像中のオブジェクトをセグメント化することができる。
SAMは通常、目標タスクで訓練された視覚モデルに似た、あるいは時として超えた認識精度を達成した。
SAMの性能が画像のオーバーヘッド問題にまで及んでいるかどうかを考察し、その開発に対するコミュニティの反応を導くのに役立てる。
論文 参考訳(メタデータ) (2023-04-25T17:14:36Z) - Can SAM Count Anything? An Empirical Study on SAM Counting [35.42720382193184]
本研究は,Segment Anything Model (SAM) を用いて,オブジェクトを数える際の課題について検討する。
SAMのパフォーマンスは、特に小さくて混み合ったオブジェクトに対して、さらに微調整をすることなく満足できないことが分かりました。
論文 参考訳(メタデータ) (2023-04-21T08:59:48Z) - SAM Fails to Segment Anything? -- SAM-Adapter: Adapting SAM in
Underperformed Scenes: Camouflage, Shadow, Medical Image Segmentation, and
More [13.047310918166762]
ドメイン固有の情報や視覚的プロンプトを,単純で効果的なアダプタを用いてセグメント化ネットワークに組み込んだtextbfSAM-Adapterを提案する。
タスク固有のネットワークモデルよりも優れていて、テストしたタスクで最先端のパフォーマンスを実現できます。
論文 参考訳(メタデータ) (2023-04-18T17:38:54Z) - SAM Struggles in Concealed Scenes -- Empirical Study on "Segment
Anything" [132.31628334155118]
Segment Anything Model (SAM) はコンピュータビジョンの基礎モデルである。
本報告では,隠れた3つのシーン,すなわちカモフラージュされた動物,工業的欠陥,医療的障害を選択し,SAMを未開の環境下で評価する。
私たちの主な観察は、SAMが隠されたシーンでスキルを欠いているように見えることです。
論文 参考訳(メタデータ) (2023-04-12T17:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。