論文の概要: First steps on Gamification of Lung Fluid Cells Annotations in the
Flower Domain
- arxiv url: http://arxiv.org/abs/2111.03663v1
- Date: Fri, 5 Nov 2021 14:11:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-09 15:33:32.193210
- Title: First steps on Gamification of Lung Fluid Cells Annotations in the
Flower Domain
- Title(参考訳): フラワードメインにおける肺液細胞アノテーションのゲーム化に関する第1歩
- Authors: Sonja Kunzmann, Christian Marzahl, Felix Denzinger, Christof A.
Bertram, Robert Klopfleisch, Katharina Breininger, Vincent Christlein,
Andreas Maier
- Abstract要約: そこで本研究では,病理画像から肺液細胞を注視するタスクをゲーミフィケーションする手法を提案する。
このドメインは、未熟練のアノテータには未知であるため、RetinaNetアーキテクチャで検出された細胞のイメージを、花の領域に変換する。
このより評価可能な領域では、熟練していないアノテータは(t)遊び心のある環境で様々な種類の花に注釈を付けることができる。
- 参考スコア(独自算出の注目度): 6.470549137572311
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Annotating data, especially in the medical domain, requires expert knowledge
and a lot of effort. This limits the amount and/or usefulness of available
medical data sets for experimentation. Therefore, developing strategies to
increase the number of annotations while lowering the needed domain knowledge
is of interest. A possible strategy is the use of gamification, that is i.e.
transforming the annotation task into a game. We propose an approach to gamify
the task of annotating lung fluid cells from pathological whole slide images.
As this domain is unknown to non-expert annotators, we transform images of
cells detected with a RetinaNet architecture to the domain of flower images.
This domain transfer is performed with a CycleGAN architecture for different
cell types. In this more assessable domain, non-expert annotators can be
(t)asked to annotate different kinds of flowers in a playful setting. In order
to provide a proof of concept, this work shows that the domain transfer is
possible by evaluating an image classification network trained on real cell
images and tested on the cell images generated by the CycleGAN network. The
classification network reaches an accuracy of 97.48% and 95.16% on the original
lung fluid cells and transformed lung fluid cells, respectively. With this
study, we lay the foundation for future research on gamification using
CycleGANs.
- Abstract(参考訳): データのアノテート、特に医療領域では、専門家の知識と多くの労力が必要です。
これは実験のための利用可能な医療データセットの量と/または有用性を制限する。
そのため、必要なドメイン知識を下げながらアノテーションの数を増やす戦略の開発が注目される。
可能な戦略はゲーミフィケーションの使用であり、つまりアノテーションタスクをゲームに変換することである。
そこで本研究では,病理画像から肺液細胞を注視するタスクをゲーミフィケーションする手法を提案する。
このドメインは、未熟練のアノテータには未知であるため、RetinaNetアーキテクチャで検出された細胞のイメージを花の領域に変換する。
このドメイン転送は、異なる細胞タイプのためのCycleGANアーキテクチャで実行される。
このより評価しやすい領域では、非専門家の注釈家は(t)遊び心のある設定で異なる種類の花に注釈をつけることができる。
本研究は,実セル上で訓練された画像分類ネットワークを評価し,サイクガンネットワークによって生成されたセルイメージ上でテストすることにより,ドメイン転送が可能となることを示す。
分類ネットワークは、それぞれ97.48%、95.16%の精度で元の肺液細胞と形質転換肺液細胞に到達した。
本研究では,CycleGANを用いたゲーミフィケーション研究の基礎を築いた。
関連論文リスト
- DiffKillR: Killing and Recreating Diffeomorphisms for Cell Annotation in Dense Microscopy Images [105.46086313858062]
DiffKillRは、アーチェタイプマッチングと画像登録タスクの組み合わせとして、セルアノテーションを再構成する新しいフレームワークである。
我々はDiffKillRの理論的性質について論じ、それを3つの顕微鏡タスクで検証し、既存の教師付き・半教師なし・教師なしの手法に対する利点を実証する。
論文 参考訳(メタデータ) (2024-10-04T00:38:29Z) - Mew: Multiplexed Immunofluorescence Image Analysis through an Efficient Multiplex Network [84.88767228835928]
マルチプレックスネットワークのレンズを通してmIF画像を効率的に処理する新しいフレームワークであるMewを紹介する。
Mew は、幾何学情報のための Voronoi ネットワークと、セルワイドの均一性を捉えるセル型ネットワークという、2つの異なる層からなる多重ネットワークを革新的に構築する。
このフレームワークは、トレーニング中にグラフ全体を処理できるスケーラブルで効率的なグラフニューラルネットワーク(GNN)を備えている。
論文 参考訳(メタデータ) (2024-07-25T08:22:30Z) - Could We Generate Cytology Images from Histopathology Images? An Empirical Study [1.791005104399795]
本研究では,CycleGANやNeural Style Transferといった従来の画像間転送モデルについて検討した。
本研究では,CycleGANやNeural Style Transferといった従来の画像間転送モデルについて検討した。
論文 参考訳(メタデータ) (2024-03-16T10:43:12Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Cross-modulated Few-shot Image Generation for Colorectal Tissue
Classification [58.147396879490124]
XM-GANと名づけられた少数ショット生成法は,1塩基と1対の参照組織像を入力とし,高品質で多様な画像を生成する。
我々の知る限りでは、大腸組織像の少数ショット生成を最初に調査した人物である。
論文 参考訳(メタデータ) (2023-04-04T17:50:30Z) - Unpaired Image-to-Image Translation with Limited Data to Reveal Subtle
Phenotypes [0.5076419064097732]
本稿では,多数の画像の必要性を軽減するために,自己教師付き識別器を用いた改良型CycleGANアーキテクチャを提案する。
また, 生物学的データセットを用いて, 明らかな細胞表現型および非予防的な細胞表現型変異について検討した。
論文 参考訳(メタデータ) (2023-01-21T16:25:04Z) - Cross-domain Microscopy Cell Counting by Disentangled Transfer Learning [1.52292571922932]
弱い人間のアノテーションのみを必要とするクロスドメイン細胞カウント手法を提案する。
我々は、ソースドメインとして合成細胞からなる公開データセットを使用する。
実際の細胞画像の新しいターゲット領域にドメインに依存しない知識のみを転送する。
論文 参考訳(メタデータ) (2022-11-26T18:41:37Z) - Comparisons among different stochastic selection of activation layers
for convolutional neural networks for healthcare [77.99636165307996]
ニューラルネットワークのアンサンブルを用いて生体医用画像の分類を行う。
ReLU, leaky ReLU, Parametric ReLU, ELU, Adaptive Piecewice Linear Unit, S-Shaped ReLU, Swish, Mish, Mexican Linear Unit, Parametric Deformable Linear Unit, Soft Root Sign。
論文 参考訳(メタデータ) (2020-11-24T01:53:39Z) - DoFE: Domain-oriented Feature Embedding for Generalizable Fundus Image
Segmentation on Unseen Datasets [96.92018649136217]
対象ドメインに対するCNNの一般化能力を向上させるために,新しいドメイン指向特徴埋め込み(DoFE)フレームワークを提案する。
私たちのDoFEフレームワークは、マルチソースドメインから学んだ追加のドメイン事前知識で、画像機能を動的に強化します。
本フレームワークは、未確認データセットのセグメンテーション結果を満足して生成し、他の領域の一般化やネットワークの正規化手法を超越する。
論文 参考訳(メタデータ) (2020-10-13T07:28:39Z) - Graph Neural Networks for UnsupervisedDomain Adaptation of
Histopathological ImageAnalytics [22.04114134677181]
組織像解析のための教師なし領域適応のための新しい手法を提案する。
特徴空間に画像を埋め込むバックボーンと、ラベルで画像の監視信号をプロパゲートするグラフニューラルネットワーク層に基づいている。
実験では、4つの公開データセット上での最先端のパフォーマンスを評価する。
論文 参考訳(メタデータ) (2020-08-21T04:53:44Z) - Few-Shot Microscopy Image Cell Segmentation [15.510258960276083]
顕微鏡画像におけるセルの自動セグメンテーションは、完全な監視で訓練されたディープニューラルネットワークのサポートとうまく機能する。
本稿では,細胞を分割し,セグメント化結果を分類境界から切り離すための3つの目的関数の組み合わせを提案する。
5つの公開データベースに対する実験は、1ショットから10ショットのメタラーニングによる有望な結果を示している。
論文 参考訳(メタデータ) (2020-06-29T12:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。