論文の概要: Difficulty Translation in Histopathology Images
- arxiv url: http://arxiv.org/abs/2004.12535v2
- Date: Fri, 10 Jul 2020 23:37:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 05:30:56.918479
- Title: Difficulty Translation in Histopathology Images
- Title(参考訳): 病理組織像の難解な翻訳
- Authors: Jerry Wei and Arief Suriawinata and Xiaoying Liu and Bing Ren and
Mustafa Nasir-Moin and Naofumi Tomita and Jason Wei and Saeed Hassanpour
- Abstract要約: 本稿では,大腸癌の病理像を分類しやすくする難易度翻訳モデルを提案する。
本モデルは,画像の難易度を測定するための出力信頼度を提供するスコアラと,画像の分類から分類の難易度への変換を学習する画像翻訳器とを備える。
- 参考スコア(独自算出の注目度): 12.771027143237857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The unique nature of histopathology images opens the door to domain-specific
formulations of image translation models. We propose a difficulty translation
model that modifies colorectal histopathology images to be more challenging to
classify. Our model comprises a scorer, which provides an output confidence to
measure the difficulty of images, and an image translator, which learns to
translate images from easy-to-classify to hard-to-classify using a training set
defined by the scorer. We present three findings. First, generated images were
indeed harder to classify for both human pathologists and machine learning
classifiers than their corresponding source images. Second, image classifiers
trained with generated images as augmented data performed better on both easy
and hard images from an independent test set. Finally, human annotator
agreement and our model's measure of difficulty correlated strongly, implying
that for future work requiring human annotator agreement, the confidence score
of a machine learning classifier could be used as a proxy.
- Abstract(参考訳): 病理組織学画像のユニークな性質は、画像翻訳モデルのドメイン固有の定式化への扉を開く。
本稿では,大腸癌の病理像を分類しやすくする難易度翻訳モデルを提案する。
本モデルは,画像の難易度を測定するための出力信頼度を提供するスコアラと,スコアラが定義したトレーニングセットを用いて,画像の分類から分類の難易度への変換を学習するイメージトランスレータとを備える。
我々は3つの発見を提示する。
まず、生成された画像は、人間の病理学者と機械学習の分類者の両方にとって、対応するソース画像よりも分類が難しい。
第2に,生成した画像を拡張データとしてトレーニングした画像分類器は,独立したテストセットから,容易かつハードな画像の両方に対して優れた性能を示した。
最後に、人間のアノテータ合意とモデルの難易度尺度は、人間のアノテータ合意を必要とする今後の作業において、機械学習分類器の信頼性スコアをプロキシとして使用できることを示唆している。
関連論文リスト
- Natural Language Induced Adversarial Images [14.415478695871604]
本稿では,自然言語による逆画像攻撃手法を提案する。
中心となる考え方は、入力プロンプトが与えられた逆画像を生成するために、テキスト・ツー・イメージモデルを活用することである。
実験の結果,"foggy","humid","stretching"などの高周波意味情報が誤りを生じやすいことがわかった。
論文 参考訳(メタデータ) (2024-10-11T08:36:07Z) - Exploring Semantic Consistency in Unpaired Image Translation to Generate
Data for Surgical Applications [1.8011391924021904]
本研究では,外科的応用における適切なデータを生成するための画像翻訳手法を実験的に検討した。
構造相似性損失と対照的学習の単純な組み合わせが、最も有望な結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2023-09-06T14:43:22Z) - Improving Generalization of Image Captioning with Unsupervised Prompt
Learning [63.26197177542422]
画像キャプションの一般化(GeneIC)は、アノテーション付きデータを必要とせずに、ターゲットドメインのドメイン固有のプロンプトベクトルを学習する。
GeneICは、学習済みのContrastive Language-Image Pre-Training (CLIP)モデルと視覚的および言語的モダリティを一致させる。
論文 参考訳(メタデータ) (2023-08-05T12:27:01Z) - Towards a Visual-Language Foundation Model for Computational Pathology [5.72536252929528]
病理組織学(CONCH)におけるコントラスト学習について紹介する。
CONCHは、様々な組織像、生医学的テキスト、タスクに依存しない事前トレーニングのソースを用いて開発された視覚言語基盤モデルである。
13種類の多様なベンチマークで評価され, 画像分類, セグメンテーション, キャプション, テキスト・ツー・イメージ検索, 画像・テキスト検索における最先端のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2023-07-24T16:13:43Z) - Discriminative Class Tokens for Text-to-Image Diffusion Models [107.98436819341592]
自由形式のテキストの表現可能性を利用した非侵襲的な微調整手法を提案する。
本手法は,従来の微調整法と比較して高速で,クラス内の画像の収集を必要としない。
i)標準拡散モデルよりも正確で高品質な生成画像,(ii)低リソース環境でのトレーニングデータの拡張,および(iii)誘導分類器の訓練に使用されるデータ情報を明らかにする。
論文 参考訳(メタデータ) (2023-03-30T05:25:20Z) - GraVIS: Grouping Augmented Views from Independent Sources for
Dermatology Analysis [52.04899592688968]
皮膚科画像から自己教師付き特徴を学習するために特に最適化されたGraVISを提案する。
GraVISは、病変のセグメンテーションと疾患分類のタスクにおいて、転送学習と自己教師型学習を著しく上回っている。
論文 参考訳(メタデータ) (2023-01-11T11:38:37Z) - Cross-Modal Similarity-Based Curriculum Learning for Image Captioning [46.18855398491187]
本稿では,事前学習された視覚言語モデルによって計算されたクロスモーダル類似度を用いた画像キャプションの簡易かつ効率的な難易度測定法を提案する。
COCOデータセットとFlickr30kデータセットの実験から,提案手法はベースラインに対する性能と競合収束速度を向上することが示された。
論文 参考訳(メタデータ) (2022-12-14T07:52:36Z) - A Transformer-Based Contrastive Learning Approach for Few-Shot Sign
Language Recognition [0.0]
本稿では,ボディキー点列からリッチな表現を学習するContrastive Transformerベースのモデルを提案する。
実験により、モデルは十分に一般化でき、トレーニングプロセスで見られない手話のクラスに対して、競争的な結果を得ることができた。
論文 参考訳(メタデータ) (2022-04-05T11:42:55Z) - Zero-Shot Image-to-Text Generation for Visual-Semantic Arithmetic [72.60554897161948]
最近のテキストと画像のマッチングモデルは、未修正画像と文の大きなコーパスに対してコントラスト学習を適用している。
本研究では、そのようなモデルを用いて、推論時に画像が与えられた記述テキストを生成する。
結果として得られたキャプションは、教師付きキャプション法によるキャプションよりもはるかに制限を受けない。
論文 参考訳(メタデータ) (2021-11-29T11:01:49Z) - An Empirical Study of the Collapsing Problem in Semi-Supervised 2D Human
Pose Estimation [80.02124918255059]
半教師付き学習は、ラベルなし画像の探索によってモデルの精度を高めることを目的としている。
私たちは相互に教え合うために2つのネットワークを学びます。
各ネットワーク内の容易なイメージに関するより信頼性の高い予測は、他のネットワークに対応するハードイメージについて学ぶように教えるために使用される。
論文 参考訳(メタデータ) (2020-11-25T03:29:52Z) - I Am Going MAD: Maximum Discrepancy Competition for Comparing
Classifiers Adaptively [135.7695909882746]
我々は、MAD(Maximum Discrepancy)コンペティションを命名する。
任意に大きいラベル付き画像のコーパスから小さなテストセットを適応的にサンプリングする。
結果のモデル依存画像集合に人間のラベルを付けると、競合する分類器の相対的な性能が明らかになる。
論文 参考訳(メタデータ) (2020-02-25T03:32:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。