論文の概要: SAMJ: Fast Image Annotation on ImageJ/Fiji via Segment Anything Model
- arxiv url: http://arxiv.org/abs/2506.02783v1
- Date: Tue, 03 Jun 2025 12:10:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.615032
- Title: SAMJ: Fast Image Annotation on ImageJ/Fiji via Segment Anything Model
- Title(参考訳): SAMJ: ImageJ/Fiji上の高速画像アノテーション
- Authors: Carlos Garcia-Lopez-de-Haro, Caterina Fuster-Barcelo, Curtis T. Rueden, Jonathan Heras, Vladimir Ulman, Daniel Franco-Barranco, Adrian Ines, Kevin W. Eliceiri, Jean-Christophe Olivo-Marin, Jean-Yves Tinevez, Daniel Sage, Arrate Munoz-Barrutia,
- Abstract要約: SAMJは、SAM(Segment Anything Model)を利用した、ユーザフレンドリーなImageJ/Fijiプラグインである。
SAMJは、大規模な科学的画像におけるリアルタイムなオブジェクト記述のために設計されており、ラベル付き画像データセットの作成を単純化し、加速する使いやすいソリューションである。
- 参考スコア(独自算出の注目度): 4.335710660720524
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Mask annotation remains a significant bottleneck in AI-driven biomedical image analysis due to its labor-intensive nature. To address this challenge, we introduce SAMJ, a user-friendly ImageJ/Fiji plugin leveraging the Segment Anything Model (SAM). SAMJ enables seamless, interactive annotations with one-click installation on standard computers. Designed for real-time object delineation in large scientific images, SAMJ is an easy-to-use solution that simplifies and accelerates the creation of labeled image datasets.
- Abstract(参考訳): Maskアノテーションは、労働集約性のため、AI駆動のバイオメディカル画像解析において重要なボトルネックとなっている。
この課題に対処するために,Segment Anything Model (SAM) を利用したユーザフレンドリーな ImageJ/Fiji プラグイン SAMJ を紹介した。
SAMJは、標準的なコンピュータにワンクリックでインストールすることで、シームレスでインタラクティブなアノテーションを可能にする。
SAMJは、大規模な科学的画像におけるリアルタイムなオブジェクト記述のために設計されており、ラベル付き画像データセットの作成を単純化し、加速する使いやすいソリューションである。
関連論文リスト
- SAM-REF: Introducing Image-Prompt Synergy during Interaction for Detail Enhancement in the Segment Anything Model [24.774935133996074]
軽量精細機を用いて画像とプロンプトを完全に統合する2段階精細化フレームワークを提案する。
我々のSAM-REFモデルは、効率を損なうことなくセグメンテーション品質に関するほとんどの指標において、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-08-21T11:18:35Z) - CC-SAM: SAM with Cross-feature Attention and Context for Ultrasound Image Segmentation [20.448864959103858]
Segment Anything Model (SAM) は、自然画像のセグメンテーションの領域で顕著な成功を収めた。
SAMは、低コントラスト、かすかな境界、複雑な形態、そして小さなサイズの物体を特徴とする医療画像に苦しむ。
医療領域におけるSAMの性能を高めるために,包括的修正を導入する。
論文 参考訳(メタデータ) (2024-07-31T22:24:05Z) - CycleSAM: One-Shot Surgical Scene Segmentation using Cycle-Consistent Feature Matching to Prompt SAM [2.9500242602590565]
CycleSAMは、テスト時にトレーニングイメージマスクペアを使用してワンショットの手術シーンセグメンテーションを行うアプローチである。
手術画像に事前訓練されたResNet50エンコーダを自己教師方式で採用し,高いラベル効率を維持する。
論文 参考訳(メタデータ) (2024-07-09T12:08:07Z) - FocSAM: Delving Deeply into Focused Objects in Segmenting Anything [58.042354516491024]
Segment Anything Model (SAM)はセグメンテーションモデルにおいて注目すべきマイルストーンである。
2つの重要な側面に基づいてパイプラインを再設計したFocSAMを提案する。
まず,Dwin-MSA(Dynamic Window Multi-head Self-Attention)を提案する。
次に,Pixel-wise Dynamic ReLU (P-DyReLU)を提案する。
論文 参考訳(メタデータ) (2024-05-29T02:34:13Z) - A Generative Approach for Wikipedia-Scale Visual Entity Recognition [56.55633052479446]
与えられたクエリ画像をWikipediaにある600万の既存エンティティの1つにマッピングするタスクに対処する。
本稿では,対象エンティティを識別する「意味的・識別的コード」の自動復号化を学習する,新しい生成エンティティ認識フレームワークを紹介する。
論文 参考訳(メタデータ) (2024-03-04T13:47:30Z) - Repurposing SAM for User-Defined Semantics Aware Segmentation [23.88643687043431]
SAMに意味認識を付与する新しいフレームワークであるU-SAMを提案する。
U-SAMは、テストデータディストリビューションのラベル付き/ラベルなしサンプルを必要とせずに、画像にピクセルレベルのセマンティックアノテーションを提供する。
We evaluate U-SAM on PASCAL VOC 2012 and MSCOCO-80, achieve significant mIoU improve of +17.95% and +520%。
論文 参考訳(メタデータ) (2023-12-05T01:37:18Z) - AutoSAM: Adapting SAM to Medical Images by Overloading the Prompt
Encoder [101.28268762305916]
この作業では、Segment Anything Modelを同じ入力イメージで動作するエンコーダに置き換える。
複数の医用画像とビデオのベンチマークで最先端の結果を得る。
内部の知識を検査し、軽量なセグメンテーションソリューションを提供するために、浅いデコンボリューションネットワークによってマスクに復号化することを学ぶ。
論文 参考訳(メタデータ) (2023-06-10T07:27:00Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z) - Controllable Image Synthesis via SegVAE [89.04391680233493]
セマンティックマップは条件付き画像生成の中間表現として一般的に使用される。
本研究では,所望のカテゴリからなるラベルセットを与えられたセマンティックマップの生成を特に対象とする。
提案するフレームワークSegVAEは,条件付き変分オートエンコーダを用いて,セマンティックマップを反復的に合成する。
論文 参考訳(メタデータ) (2020-07-16T15:18:53Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。