論文の概要: SWAN - Enabling Fast and Mobile Histopathology Image Annotation through Swipeable Interfaces
- arxiv url: http://arxiv.org/abs/2511.08271v1
- Date: Wed, 12 Nov 2025 01:49:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.729766
- Title: SWAN - Enabling Fast and Mobile Histopathology Image Annotation through Swipeable Interfaces
- Title(参考訳): SWAN - スワイプインタフェースによる高速・移動型病理画像アノテーションの実現
- Authors: Sweta Banerjee, Timo Gosch, Sara Hester, Viktoria Weiss, Thomas Conrad, Taryn A. Donovan, Nils Porsche, Jonas Ammeling, Christoph Stroblberger, Robert Klopfleisch, Christopher Kaltenecker, Christof A. Bertram, Katharina Breininger, Marc Aubreville,
- Abstract要約: SWipeable Annotations (SWAN) はMITライセンスのオープンソースWebアプリケーションで,スワイプジェスチャーによる直感的な画像パッチ分類を実現する。
SWANはデスクトッププラットフォームとモバイルプラットフォームの両方をサポートし、リアルタイムメタデータキャプチャを提供し、クラスラベルへのスワイプジェスチャの柔軟なマッピングを可能にする。
- 参考スコア(独自算出の注目度): 1.1467878575038577
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The annotation of large scale histopathology image datasets remains a major bottleneck in developing robust deep learning models for clinically relevant tasks, such as mitotic figure classification. Folder-based annotation workflows are usually slow, fatiguing, and difficult to scale. To address these challenges, we introduce SWipeable ANnotations (SWAN), an open-source, MIT-licensed web application that enables intuitive image patch classification using a swiping gesture. SWAN supports both desktop and mobile platforms, offers real-time metadata capture, and allows flexible mapping of swipe gestures to class labels. In a pilot study with four pathologists annotating 600 mitotic figure image patches, we compared SWAN against a traditional folder-sorting workflow. SWAN enabled rapid annotations with pairwise percent agreement ranging from 86.52% to 93.68% (Cohen's Kappa = 0.61-0.80), while for the folder-based method, the pairwise percent agreement ranged from 86.98% to 91.32% (Cohen's Kappa = 0.63-0.75) for the task of classifying atypical versus normal mitotic figures, demonstrating high consistency between annotators and comparable performance. Participants rated the tool as highly usable and appreciated the ability to annotate on mobile devices. These results suggest that SWAN can accelerate image annotation while maintaining annotation quality, offering a scalable and user-friendly alternative to conventional workflows.
- Abstract(参考訳): 大規模な病理組織像データセットのアノテーションは、有糸分裂図分類のような臨床的に関係のあるタスクのための堅牢なディープラーニングモデルを開発する上で、依然として大きなボトルネックとなっている。
フォルダベースのアノテーションワークフローは通常、遅く、ファジィで、スケールが難しい。
これらの課題に対処するために、SWipeable Annotations (SWAN)というオープンソースのMITライセンスのWebアプリケーションを導入し、スワイプジェスチャーを使って直感的な画像パッチ分類を可能にする。
SWANはデスクトッププラットフォームとモバイルプラットフォームの両方をサポートし、リアルタイムメタデータキャプチャを提供し、クラスラベルへのスワイプジェスチャの柔軟なマッピングを可能にする。
画像パッチ600点を注釈した4人の病理医によるパイロット研究で,SWANと従来のフォルダソートワークフローを比較した。
SWAN は 86.52% から 93.68% (コーエンの Kappa = 0.61-0.80) まで、そしてフォルダーベースの手法では 86.98% から 91.32% (コーエンの Kappa = 0.63-0.75) まで、非定型的および正常な mitotic figure を分類し、アノテータと同等のパフォーマンスの高整合性を示す。
参加者はツールを非常に使いやすく評価し、モバイルデバイスでアノテートする機能を高く評価した。
これらの結果から、SWANはアノテーションの品質を維持しながら画像アノテーションを加速し、従来のワークフローに代わるスケーラブルでユーザフレンドリな代替手段を提供する可能性が示唆された。
関連論文リスト
- FAST: A Dual-tier Few-Shot Learning Paradigm for Whole Slide Image Classification [23.323845050957196]
既存のWSI分類法では、少数のきめ細かいラベルや弱い教師付きスライドラベルしか使用していない。
利用可能なWSIを十分にマイニングすることができず、WSI分類性能を著しく制限しています。
本稿では,WSI分類のためのFASTという,新規で効率的な2層複数ショット学習パラダイムを提案する。
論文 参考訳(メタデータ) (2024-09-29T14:31:52Z) - Mining Open Semantics from CLIP: A Relation Transition Perspective for Few-Shot Learning [46.25534556546322]
そこで本稿では,イメージ・アンカー関係から画像・ターゲット関係に遷移して予測を行うアンカーとしてオープンセマンティクスを抽出することを提案する。
本手法は, 数ショットの分類設定を考慮し, 従来の最先端技術に対して良好に機能する。
論文 参考訳(メタデータ) (2024-06-17T06:28:58Z) - Auxiliary Tasks Enhanced Dual-affinity Learning for Weakly Supervised
Semantic Segmentation [79.05949524349005]
AuxSegNet+は、サリエンシマップから豊富な情報を探索する弱教師付き補助学習フレームワークである。
また,サリエンシとセグメンテーションの特徴マップから画素レベルの親和性を学習するためのクロスタスク親和性学習機構を提案する。
論文 参考訳(メタデータ) (2024-03-02T10:03:21Z) - Fully Attentional Networks with Self-emerging Token Labeling [108.53230681047617]
我々は、意味的に意味のあるパッチトークンラベルを生成するためにFANトークンラベル(FAN-TL)をトレーニングし、その後、トークンラベルとオリジナルクラスラベルの両方を使用するFAN学生モデルトレーニングステージを作成した。
提案したSTLフレームワークでは,ImageNet-1KおよびImageNet-C上で84.8%のTop-1精度と42.1%のmCEを実現し,余分なデータを使用しないImageNet-A(46.1%)とImageNet-R(56.6%)の新たな最先端設定を行う。
論文 参考訳(メタデータ) (2024-01-08T12:14:15Z) - Masked Cross-image Encoding for Few-shot Segmentation [16.445813548503708]
Few-shot segmentation (FSS) は、注釈付き画像の限られた数だけを用いて、未確認クラスのピクセルワイズラベルを推測することを目的とした、密度の高い予測タスクである。
本研究では,オブジェクトの詳細を記述した共通視覚特性をキャプチャし,特徴の相互作用を高める双方向画像間の依存関係を学習する,Masked Cross-Image MCEという共同学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-22T05:36:39Z) - Leveraging Auxiliary Tasks with Affinity Learning for Weakly Supervised
Semantic Segmentation [88.49669148290306]
そこで我々はAuxSegNetと呼ばれる弱教師付きマルチタスク・フレームワークを提案し,サリエンシ検出とマルチラベル画像分類を補助タスクとして活用する。
同様の構造的セマンティクスに着想を得て,サリエンシとセグメンテーションの表現から,クロスタスクなグローバル画素レベルの親和性マップを学習することを提案する。
学習されたクロスタスク親和性は、両方のタスクに対して改善された擬似ラベルを提供するために、唾液度予測を洗練し、CAMマップを伝播するために使用することができる。
論文 参考訳(メタデータ) (2021-07-25T11:39:58Z) - Graph Sampling Based Deep Metric Learning for Generalizable Person
Re-Identification [114.56752624945142]
我々は、最も一般的なランダムサンプリング手法である有名なpkサンプリングは、深層メトリック学習にとって有益で効率的ではないと主張する。
大規模計量学習のためのグラフサンプリング(GS)と呼ばれる効率的なミニバッチサンプリング手法を提案する。
論文 参考訳(メタデータ) (2021-04-04T06:44:15Z) - Learning to Focus: Cascaded Feature Matching Network for Few-shot Image
Recognition [38.49419948988415]
ディープネットワークは、多数の画像でトレーニングすることで、カテゴリのオブジェクトを正確に認識することを学ぶことができる。
低ショット画像認識タスク(low-shot image recognition task)として知られるメタラーニングの課題は、1つのカテゴリの認識モデルを学ぶためにアノテーション付き画像しか利用できない場合に発生する。
この問題を解決するため,Cascaded Feature Matching Network (CFMN) と呼ばれる手法を提案する。
EmphminiImageNet と Omniglot の2つの標準データセットを用いた数ショット学習実験により,本手法の有効性が確認された。
論文 参考訳(メタデータ) (2021-01-13T11:37:28Z) - Knowledge-Guided Multi-Label Few-Shot Learning for General Image
Recognition [75.44233392355711]
KGGRフレームワークは、ディープニューラルネットワークと統計ラベル相関の事前知識を利用する。
まず、統計ラベルの共起に基づいて異なるラベルを相関させる構造化知識グラフを構築する。
次に、ラベルセマンティクスを導入し、学習セマンティクス固有の特徴をガイドする。
グラフノードの相互作用を探索するためにグラフ伝搬ネットワークを利用する。
論文 参考訳(メタデータ) (2020-09-20T15:05:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。