論文の概要: OPTED: Open Preprocessed Trachoma Eye Dataset Using Zero-Shot SAM 3 Segmentation
- arxiv url: http://arxiv.org/abs/2603.06885v1
- Date: Fri, 06 Mar 2026 21:07:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:13.304807
- Title: OPTED: Open Preprocessed Trachoma Eye Dataset Using Zero-Shot SAM 3 Segmentation
- Title(参考訳): OPTED:Zero-Shot SAM 3セグメンテーションを用いたオープンプレプロセストラコマアイデータセット
- Authors: Kibrom Gebremedhin, Hadush Hailu, Bruk Gebregziabher,
- Abstract要約: サハラ以南のアフリカは世界の負担の85%以上を占め、エチオピアだけでも全症例の半数以上を占めている。
しかし、自動トラコマ分類のための公開済みの事前処理データセットは乏しく、最も影響を受けた地域に由来するものはない。
本稿では,Segment Anything Model 3 (SAM3) を用いて構築した,オープンソースで事前処理されたトラコマアイデータセットであるOPTEDについて述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Trachoma remains the leading infectious cause of blindness worldwide, with Sub-Saharan Africa bearing over 85% of the global burden and Ethiopia alone accounting for more than half of all cases. Yet publicly available preprocessed datasets for automated trachoma classification are scarce, and none originate from the most affected region. Raw clinical photographs of eyelids contain significant background noise that hinders direct use in machine learning pipelines. We present OPTED, an open-source preprocessed trachoma eye dataset constructed using the Segment Anything Model 3 (SAM 3) for automated region-of-interest extraction. We describe a reproducible four-step pipeline: (1) text-prompt-based zero-shot segmentation of the tarsal conjunctiva using SAM 3, (2) background removal and bounding-box cropping with alignment, (3) quality filtering based on confidence scores, and (4) Lanczos resizing to 224x224 pixels. A separate prompt-selection stage identifies the optimal text prompt, and manual quality assurance verifies outputs. Through comparison of five candidate prompts on all 2,832 known-label images, we identify "inner surface of eyelid with red tissue" as optimal, achieving a mean confidence of 0.872 (std 0.070) and 99.5% detection rate (the remaining 13 images are recovered via fallback prompts). The pipeline produces outputs in two formats: cropped and aligned images preserving the original aspect ratio, and standardized 224x224 images ready for pre-trained architectures. The OPTED dataset, preprocessing code, and all experimental artifacts are released as open source to facilitate reproducible trachoma classification research.
- Abstract(参考訳): サハラ以南のアフリカは世界の負担の85%以上を占め、エチオピアだけでも全症例の半数以上を占めている。
しかし、自動トラコマ分類のための公開済みの事前処理データセットは乏しく、最も影響を受けた地域に由来するものはない。
まぶたの初期の臨床写真には、機械学習パイプラインで直接の使用を妨げる大きな背景ノイズが含まれている。
私たちは、Segment Anything Model 3 (SAM) を用いて構築されたオープンソースの事前処理型トラコマアイデータセットOPTEDを提案する。
3) 自動的関心領域抽出。
再現可能な4段階のパイプラインについて述べる:(1) SAM3を用いた足底結節のテキストプロンプトに基づくゼロショットセグメンテーション(2) 背景除去とアライメントによるバウンディングボックスの収穫,(3) 信頼度スコアに基づく品質フィルタリング,(4) ランチョスを224×224ピクセルにリサイズする。
別段のプロンプト選択段階は最適なテキストプロンプトを特定し、手動品質保証は出力を検証する。
既知の2,832枚の画像の5つの候補プロンプトを比較することで、「赤い組織を持つまぶたの内面」を最適と同定し、0.872 (std 0.070) と99.5%(残りの13枚の画像はフォールバックプロンプトによって回収される)の平均的な信頼度を達成した。
パイプラインは、2つのフォーマットで出力を生成する: トリミングされた画像とアライメントされた画像が元のアスペクト比を保存すること、および事前訓練されたアーキテクチャのために準備された224x224のイメージを標準化すること。
OPTEDデータセット、前処理コード、およびすべての実験成果物は、再現可能なトラコマ分類研究を容易にするためにオープンソースとしてリリースされている。
関連論文リスト
- RRTS Dataset: A Benchmark Colonoscopy Dataset from Resource-Limited Settings for Computer-Aided Diagnosis Research [0.1407206493229022]
我々はOlympus 170およびPen- Tax i-Scanシリーズ内視鏡を用いて収集した大腸内視鏡像のデータセットを紹介する。
このデータセットには164人の患者から得られた1,288枚のポリプと31人の患者から得られた1,657枚のポリプフリー画像が含まれている。
パフォーマンスは、キュレートされたデータセットと比較して低く、アーティファクトと可変品質のイメージの現実的な難しさを反映している。
論文 参考訳(メタデータ) (2025-11-10T06:51:41Z) - Semantic and Visual Crop-Guided Diffusion Models for Heterogeneous Tissue Synthesis in Histopathology [2.497936211748472]
現実的な異種組織像を生成する潜在拡散モデルを提案する。
本手法は, 生の組織作物を対応する意味領域から直接組み込むことによって, 重要な形態的詳細を保存している。
手動のアノテーションを使わずに11,765個のTCGA全スライディング画像にスケールすることで、我々のフレームワークは、多種多様な注釈付き病理データを生成するための実用的なソリューションを提供する。
論文 参考訳(メタデータ) (2025-09-22T14:41:43Z) - Sumotosima: A Framework and Dataset for Classifying and Summarizing Otoscopic Images [0.0]
オトスコープ(Otoscopy)は、耳管と耳栓を内視鏡で検査する診断法である。
本研究では,新しい資源効率のよいディープラーニングとトランスフォーマーベースのフレームワークSumotosimaを提案する。
私たちのフレームワークは、三重項とクロスエントロピー損失の組み合わせに取り組んでいます。
論文 参考訳(メタデータ) (2024-08-13T09:26:41Z) - Diffusion Facial Forgery Detection [56.69763252655695]
本稿では,顔に焦点をあてた拡散生成画像を対象とした包括的データセットであるDiFFを紹介する。
人体実験といくつかの代表的な偽造検出手法を用いて,DiFFデータセットの広範な実験を行った。
その結果、人間の観察者と自動検出者の2値検出精度は30%以下であることが判明した。
論文 参考訳(メタデータ) (2024-01-29T03:20:19Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Booster: a Benchmark for Depth from Images of Specular and Transparent
Surfaces [49.44971010149331]
本研究では,高分解能で高精度かつ高密度な地下構造ラベルを含む新しいデータセットを提案する。
我々の買収パイプラインは、新しい時空ステレオフレームワークを活用している。
データセットは85の異なるシーンで収集された606のサンプルで構成されている。
論文 参考訳(メタデータ) (2023-01-19T18:59:28Z) - Scrape, Cut, Paste and Learn: Automated Dataset Generation Applied to
Parcel Logistics [58.720142291102135]
4つのステップでインスタンスセグメンテーションのための合成データセットを生成するために,完全に自動化されたパイプラインを提案する。
まず、人気のある画像検索エンジンから興味ある対象の画像を抽出する。
画像選択には,オブジェクトに依存しない事前処理,手動画像選択,CNNに基づく画像選択の3つの方法を比較する。
論文 参考訳(メタデータ) (2022-10-18T12:49:04Z) - Multistream Gaze Estimation with Anatomical Eye Region Isolation by
Synthetic to Real Transfer Learning [24.872143206600185]
眼解剖情報を利用して視線表現を学習する新しいニューラルネットワークMSGazeNetを提案する。
当社のフレームワークは,3つの視線推定データセットにおいて,最先端の7.57%,1.85%を超えている。
論文 参考訳(メタデータ) (2022-06-18T17:57:32Z) - Sharp-GAN: Sharpness Loss Regularized GAN for Histopathology Image
Synthesis [65.47507533905188]
コンディショナル・ジェネレーショナル・ジェネレーティブ・逆境ネットワークは、合成病理像を生成するために応用されている。
そこで我々は,現実的な病理像を合成するために,シャープネスロス正則化生成対向ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T18:54:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。