論文の概要: SAM for Poultry Science
- arxiv url: http://arxiv.org/abs/2305.10254v1
- Date: Wed, 17 May 2023 14:43:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 15:31:50.311492
- Title: SAM for Poultry Science
- Title(参考訳): 養鶏科学のためのSAM
- Authors: Xiao Yang, Haixing Dai, Zihao Wu, Ramesh Bist, Sachin Subedi, Jin Sun,
Guoyu Lu, Changying Li, Tianming Liu, Lilong Chai
- Abstract要約: Segment Anything Model (SAM)は、オブジェクトセグメンテーションタスクのための画期的なソリューションである。
本研究の目的は,代表的ニワトリセグメンテーションタスクにおけるSAMのゼロショットセグメンテーション性能を評価することである。
以上の結果から,SegFormerやSETRに比べ,全鶏の分節化および分節化におけるSAMの優れた性能が示された。
- 参考スコア(独自算出の注目度): 13.850409007717445
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, the agricultural industry has witnessed significant
advancements in artificial intelligence (AI), particularly with the development
of large-scale foundational models. Among these foundation models, the Segment
Anything Model (SAM), introduced by Meta AI Research, stands out as a
groundbreaking solution for object segmentation tasks. While SAM has shown
success in various agricultural applications, its potential in the poultry
industry, specifically in the context of cage-free hens, remains relatively
unexplored. This study aims to assess the zero-shot segmentation performance of
SAM on representative chicken segmentation tasks, including part-based
segmentation and the use of infrared thermal images, and to explore
chicken-tracking tasks by using SAM as a segmentation tool. The results
demonstrate SAM's superior performance compared to SegFormer and SETR in both
whole and part-based chicken segmentation. SAM-based object tracking also
provides valuable data on the behavior and movement patterns of broiler birds.
The findings of this study contribute to a better understanding of SAM's
potential in poultry science and lay the foundation for future advancements in
chicken segmentation and tracking.
- Abstract(参考訳): 近年、農業産業は人工知能(AI)の大幅な進歩、特に大規模基盤モデルの開発を目にしている。
これらの基礎モデルの中で、Meta AI Researchによって導入されたSegment Anything Model(SAM)は、オブジェクトセグメンテーションタスクの画期的なソリューションとして際立っている。
SAMは様々な農業用途で成功しているが、養鶏業、特にケージフリーの鶏の文脈におけるそのポテンシャルは、いまだに明らかにされていない。
本研究は, 代表的ニワトリセグメンテーションタスクにおけるSAMのゼロショットセグメンテーション性能を評価することを目的として, パートベースセグメンテーションや赤外線サーマル画像の利用, および, SAMをセグメンテーションツールとして利用してチキン追跡タスクの探索を目的とする。
以上の結果から,SegFormerやSETRに比べ,全鶏の分節化および分節化におけるSAMの優れた性能が示された。
SAMに基づく物体追跡は、ブロイラー鳥類の行動と運動パターンに関する貴重なデータも提供する。
本研究は, 養鶏科学におけるSAMの可能性についてより深く理解し, ニワトリの分節化と追跡の今後の発展の基礎を築いた。
関連論文リスト
- On Efficient Variants of Segment Anything Model: A Survey [63.127753705046]
Segment Anything Model (SAM) は画像分割タスクの基本モデルであり、多様なアプリケーションにまたがる強力な一般化で知られている。
これを解決するために、精度を保ちながら効率を高めるために様々なSAM変種が提案されている。
この調査は、これらの効率的なSAM変種に関する最初の包括的なレビューを提供する。
論文 参考訳(メタデータ) (2024-10-07T11:59:54Z) - AlignSAM: Aligning Segment Anything Model to Open Context via Reinforcement Learning [61.666973416903005]
Segment Anything Model (SAM)は、オープンワールドシナリオにおいて、プロンプトのガイダンスによって、その印象的な一般化機能を実証した。
オープンコンテキストにSAMをアライメントするための自動プロンプトのための新しいフレームワークAlignSAMを提案する。
論文 参考訳(メタデータ) (2024-06-01T16:21:39Z) - Moving Object Segmentation: All You Need Is SAM (and Flow) [82.78026782967959]
SAMのセグメンテーション能力と移動物体の発見・グループ化能力を利用する光フローとSAMを組み合わせた2つのモデルについて検討する。
第1のモデルでは、RGBではなく光の流れを入力としてSAMに適応させ、第2のモデルではRGBを入力として、フローをセグメント化プロンプトとして使用する。
これらの驚くほど単純な方法は、追加の修正なしに、シングルオブジェクトとマルチオブジェクトのベンチマークにおいて、以前のアプローチをかなり上回っている。
論文 参考訳(メタデータ) (2024-04-18T17:59:53Z) - Open-Vocabulary SAM: Segment and Recognize Twenty-thousand Classes Interactively [69.97238935096094]
Open-Vocabulary SAMはSAMにインスパイアされたモデルであり、対話的なセグメンテーションと認識のために設計されている。
約22,000のクラスを分類・認識できる。
論文 参考訳(メタデータ) (2024-01-05T18:59:22Z) - TinySAM: Pushing the Envelope for Efficient Segment Anything Model [76.21007576954035]
我々は,強力なゼロショット性能を維持しつつ,小さなセグメントの任意のモデル(TinySAM)を得るためのフレームワークを提案する。
本研究は,まず,軽量学生モデルを蒸留するためのハードプロンプトサンプリングとハードマスク重み付け戦略を用いた,フルステージの知識蒸留法を提案する。
また、学習後の量子化を高速化可能なセグメンテーションタスクに適用し、計算コストをさらに削減する。
論文 参考訳(メタデータ) (2023-12-21T12:26:11Z) - Zero-Shot Segmentation of Eye Features Using the Segment Anything Model (SAM) [8.529233820032678]
Segment Anything Model (SAM)は、画像セグメンテーションのための最初の基礎モデルである。
本研究では,VR機器で記録された視線画像から特徴を分割するSAMの能力を評価する。
我々の調査はSAMのゼロショット学習能力と、バウンディングボックスやポイントクリックのようなプロンプトの有効性に焦点を当てている。
論文 参考訳(メタデータ) (2023-11-14T11:05:08Z) - FoodSAM: Any Food Segmentation [10.467966270491228]
本稿では,SAM生成マスクにおけるクラス固有の情報の欠如に対処する新しいフレームワークであるFoodSAMを提案する。
FoodSAMは、粗いセマンティックマスクとSAM生成マスクを統合し、セマンティックセマンティクスの品質を高める。
FoodSAMは、食品画像の例、パノプティクス、即時セグメンテーションを達成するための最初の作業である。
論文 参考訳(メタデータ) (2023-08-11T04:42:10Z) - A Survey on Segment Anything Model (SAM): Vision Foundation Model Meets Prompt Engineering [49.732628643634975]
Meta AI Researchが開発したSegment Anything Model (SAM)は、画像とビデオのセグメンテーションのための堅牢なフレームワークを提供する。
このサーベイはSAMファミリーの包括的調査を提供し、SAMとSAM 2は粒度と文脈理解の進歩を強調している。
論文 参考訳(メタデータ) (2023-05-12T07:21:59Z) - An Alternative to WSSS? An Empirical Study of the Segment Anything Model
(SAM) on Weakly-Supervised Semantic Segmentation Problems [35.547433613976104]
Segment Anything Model (SAM)は、優れたパフォーマンスと汎用性を示している。
本報告では,弱スーパービジョンセマンティック(WSSS)におけるSAMの適用について検討する。
画像レベルのクラスラベルのみを付与した擬似ラベル生成パイプラインとしてSAMを適応する。
論文 参考訳(メタデータ) (2023-05-02T16:35:19Z) - SAM Fails to Segment Anything? -- SAM-Adapter: Adapting SAM in
Underperformed Scenes: Camouflage, Shadow, Medical Image Segmentation, and
More [13.047310918166762]
ドメイン固有の情報や視覚的プロンプトを,単純で効果的なアダプタを用いてセグメント化ネットワークに組み込んだtextbfSAM-Adapterを提案する。
タスク固有のネットワークモデルよりも優れていて、テストしたタスクで最先端のパフォーマンスを実現できます。
論文 参考訳(メタデータ) (2023-04-18T17:38:54Z) - Segment Anything Is Not Always Perfect: An Investigation of SAM on
Different Real-world Applications [31.31905890353516]
最近、Meta AI Researchは、前例のない大規模なセグメンテーションデータセット(SA-1B)で事前訓練された、一般的な、プロンプト可能なセグメンテーションモデル(SAM)にアプローチしている。
特に,自然画像,農業,製造業,リモートセンシング,医療などの分野において,SAMの性能に関する興味深い調査を行っている。
論文 参考訳(メタデータ) (2023-04-12T10:10:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。