論文の概要: Whole Slide Image Survival Analysis Using Histopathological Feature Extractors
- arxiv url: http://arxiv.org/abs/2405.17446v1
- Date: Mon, 20 May 2024 20:13:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-02 14:30:04.761849
- Title: Whole Slide Image Survival Analysis Using Histopathological Feature Extractors
- Title(参考訳): 病理組織学的特徴エクストラクタを用いた全スライド画像生存解析
- Authors: Kleanthis Marios Papadopoulos,
- Abstract要約: 事前訓練されたResNetバックボーンを利用した多数のモデルがリリースされ、さまざまな機能集約技術を採用している。
最近リリースされたUNI特徴抽出器を利用することで、既存のモデルをより高い精度で適用することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The abundance of information present in Whole Slide Images (WSIs) makes them useful for prognostic evaluation. A large number of models utilizing a pretrained ResNet backbone have been released and employ various feature aggregation techniques, primarily based on Multiple Instance Learning (MIL). By leveraging the recently released UNI feature extractor, existing models can be adapted to achieve higher accuracy, which paves the way for more robust prognostic tools in digital pathology.
- Abstract(参考訳): WSI (Whole Slide Images) に含まれる情報の豊富さは, 予後評価に有用である。
事前訓練されたResNetバックボーンを利用した多数のモデルがリリースされ、主にMIL(Multiple Instance Learning)に基づいたさまざまな機能集約技術が採用されている。
最近リリースされたUNI機能抽出器を利用することで、既存のモデルはより高精度に適応することができ、デジタル病理学におけるより堅牢な予後ツールの道を開くことができる。
関連論文リスト
- Foundation Models for Slide-level Cancer Subtyping in Digital Pathology [1.7641392161755438]
本研究の目的は,MIL フレームワークを用いて,WSI 上の癌サブタイプのための事前訓練戦略に基づいて開発された様々な特徴抽出器の性能を比較することである。
その結果、6種類の皮膚がんの亜型を予測するために、イメージネットが事前訓練したモデルを超える基礎モデルの有効性が示された。
論文 参考訳(メタデータ) (2024-10-21T11:04:58Z) - Efficient Visual State Space Model for Image Deblurring [83.57239834238035]
畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)は、画像復元において優れた性能を発揮している。
本稿では,画像のデブロアに対する簡易かつ効果的な視覚状態空間モデル(EVSSM)を提案する。
論文 参考訳(メタデータ) (2024-05-23T09:13:36Z) - PROMPT-IML: Image Manipulation Localization with Pre-trained Foundation
Models Through Prompt Tuning [35.39822183728463]
本稿では,改ざん画像を検出するための新しいPrompt-IMLフレームワークを提案する。
人間は、意味情報と高周波情報に基づいて、画像の真偽を識別する傾向がある。
我々のモデルは8つの典型的なフェイク画像データセットでより良い性能を得ることができる。
論文 参考訳(メタデータ) (2024-01-01T03:45:07Z) - When is a Foundation Model a Foundation Model [1.306205741109041]
ファンデーションモデルは、非常に広範なデータセットのトレーニングを通じて、特定のドメインのコンテキストを学習することのできる、大規模で深い人工知能ニューラルネットワークである。
このようなモデルにより生成された表現は、デジタル病理学における検索タスクにおいて、従来よりはるかに小さいディープネットワークで生成された表現と比較して、劣った性能を示す。
論文 参考訳(メタデータ) (2023-09-14T18:03:33Z) - Bridging Synthetic and Real Images: a Transferable and Multiple
Consistency aided Fundus Image Enhancement Framework [61.74188977009786]
画像強調とドメイン適応を同時に行うために,エンドツーエンドの教師支援フレームワークを提案する。
また,教師ネットワークと学生ネットワークのバックボーンとして,マルチステージ型マルチアテンション・ガイド・エンハンスメント・ネットワーク(MAGE-Net)を提案する。
論文 参考訳(メタデータ) (2023-02-23T06:16:15Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - MOGAN: Morphologic-structure-aware Generative Learning from a Single
Image [59.59698650663925]
近年,1つの画像のみに基づく生成モデルによる完全学習が提案されている。
多様な外観のランダムなサンプルを生成するMOGANというMOrphologic-structure-aware Generative Adversarial Networkを紹介します。
合理的な構造の維持や外観の変化など、内部機能に重点を置いています。
論文 参考訳(メタデータ) (2021-03-04T12:45:23Z) - Whole Slide Images based Cancer Survival Prediction using Attention
Guided Deep Multiple Instance Learning Networks [38.39901070720532]
Whole Slide Images(WSIs)から派生したキーパッチやクラスタに制限される現在の画像ベースサバイバルモデル
我々は,シムMI-FCNとアテンションベースMILプーリングの両方を導入して,Deep Attention Multiple Instance Survival Learning (DeepAttnMISL)を提案する。
提案手法を2つの大きな癌全スライド画像データセットで評価した結果,提案手法がより効果的で,大規模データセットに適していることが示唆された。
論文 参考訳(メタデータ) (2020-09-23T14:31:15Z) - NAS-DIP: Learning Deep Image Prior with Neural Architecture Search [65.79109790446257]
近年の研究では、深部畳み込みニューラルネットワークの構造が、以前に構造化された画像として利用できることが示されている。
我々は,より強い画像の先行を捉えるニューラルネットワークの探索を提案する。
既存のニューラルネットワーク探索アルゴリズムを利用して,改良されたネットワークを探索する。
論文 参考訳(メタデータ) (2020-08-26T17:59:36Z) - Multi-task pre-training of deep neural networks for digital pathology [8.74883469030132]
私たちはまず、多くのデジタル病理データセットを22の分類タスクと約900kの画像のプールに組み立て、変換しました。
特徴抽出器として使用されるモデルは、ImageNet事前訓練されたモデルよりも大幅に改善されるか、同等のパフォーマンスを提供するかを示す。
論文 参考訳(メタデータ) (2020-05-05T08:50:17Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。