論文の概要: High-performance Data Management for Whole Slide Image Analysis in
Digital Pathology
- arxiv url: http://arxiv.org/abs/2308.05784v2
- Date: Sun, 20 Aug 2023 20:21:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 22:16:43.720998
- Title: High-performance Data Management for Whole Slide Image Analysis in
Digital Pathology
- Title(参考訳): ディジタル病理における全スライド画像解析のための高性能データ管理
- Authors: Haoju Leng, Ruining Deng, Shunxing Bao, Dazheng Fang, Bryan A. Millis,
Yucheng Tang, Haichun Yang, Xiao Wang, Yifan Peng, Lipeng Wan, Yuankai Huo
- Abstract要約: 本稿では、アダプタブルIOシステムバージョン2(ADIOS2)を実装することで、このデータアクセス課題に取り組む取り組みについて詳述する。
CPUのシナリオでは、ADIOS2はブルートフォースのアプローチに比べて2倍のスピードアップを示している。
私たちの知る限り、これはデジタル病理学の分野でADIOS2を利用する最初の例のようだ。
- 参考スコア(独自算出の注目度): 20.02220555234364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When dealing with giga-pixel digital pathology in whole-slide imaging, a
notable proportion of data records holds relevance during each analysis
operation. For instance, when deploying an image analysis algorithm on
whole-slide images (WSI), the computational bottleneck often lies in the
input-output (I/O) system. This is particularly notable as patch-level
processing introduces a considerable I/O load onto the computer system.
However, this data management process could be further paralleled, given the
typical independence of patch-level image processes across different patches.
This paper details our endeavors in tackling this data access challenge by
implementing the Adaptable IO System version 2 (ADIOS2). Our focus has been
constructing and releasing a digital pathology-centric pipeline using ADIOS2,
which facilitates streamlined data management across WSIs. Additionally, we've
developed strategies aimed at curtailing data retrieval times. The performance
evaluation encompasses two key scenarios: (1) a pure CPU-based image analysis
scenario ("CPU scenario"), and (2) a GPU-based deep learning framework scenario
("GPU scenario"). Our findings reveal noteworthy outcomes. Under the CPU
scenario, ADIOS2 showcases an impressive two-fold speed-up compared to the
brute-force approach. In the GPU scenario, its performance stands on par with
the cutting-edge GPU I/O acceleration framework, NVIDIA Magnum IO GPU Direct
Storage (GDS). From what we know, this appears to be among the initial
instances, if any, of utilizing ADIOS2 within the field of digital pathology.
The source code has been made publicly available at
https://github.com/hrlblab/adios.
- Abstract(参考訳): 全スライディング画像におけるギガピクセルのデジタル病理を扱う場合、データ記録の顕著な割合は、解析操作毎に関連性を有する。
例えば、全スライド画像(WSI)に画像解析アルゴリズムをデプロイする場合、計算のボトルネックは入出力(I/O)システムにあることが多い。
特に、パッチレベルの処理は、コンピュータシステムにかなりのI/O負荷をもたらす。
しかし、パッチレベルのイメージプロセスが異なるパッチにまたがる典型的な独立性を考慮すると、このデータ管理プロセスはさらに並列化することができる。
本稿では,adaptable io system version 2 (adios2) の実装によるデータアクセス課題への取り組みについて述べる。
私たちの焦点は、adios2を使用して、デジタル病理中心のパイプラインを構築し、リリースすることにあります。
さらに,データの検索時間を短縮する戦略も開発した。
パフォーマンス評価は、(1)純粋なCPUベースの画像解析シナリオ(CPUシナリオ)と(2)GPUベースのディープラーニングフレームワークシナリオ(GPUシナリオ)の2つの主要なシナリオを含む。
我々の発見は注目すべき結果を示している。
CPUのシナリオでは、ADIOS2はブルートフォースのアプローチに比べて2倍のスピードアップを示している。
GPUシナリオでは、そのパフォーマンスは最先端のGPU I/OアクセラレーションフレームワークであるNVIDIA Magnum IO GPU Direct Storage (GDS)と同等である。
私たちが知る限り、これはデジタル病理学の分野でadios2を利用する最初の例の1つに思える。
ソースコードはhttps://github.com/hrlblab/adiosで公開されている。
関連論文リスト
- Deep Optimizer States: Towards Scalable Training of Transformer Models Using Interleaved Offloading [2.8231000588510757]
トランスフォーマーと大規模言語モデル(LLM)は、すべてのドメインで急速に採用されている。
変圧器の訓練は非常に高価で、しばしば記憶壁にぶつかる」
本稿では,LLMをCPUまたはGPU上で更新フェーズをスケジュールしたサブグループに分割する手法を提案する。
論文 参考訳(メタデータ) (2024-10-26T00:43:59Z) - High Performance Computing Applied to Logistic Regression: A CPU and GPU
Implementation Comparison [0.0]
汎用GPUによるロジスティック回帰(LR)の並列バージョンを提案する。
我々の実装は、X. Zouらによって提案された並列なグラディエントDescent Logistic Regressionアルゴリズムの直接変換である。
本手法は,画像認識,スパム検出,不正検出などのリアルタイム予測に特に有用である。
論文 参考訳(メタデータ) (2023-08-19T14:49:37Z) - INR-Arch: A Dataflow Architecture and Compiler for Arbitrary-Order
Gradient Computations in Implicit Neural Representation Processing [66.00729477511219]
計算グラフとして表される関数を考えると、従来のアーキテクチャはn階勾配を効率的に計算する上で困難に直面している。
InR-Archは,n階勾配の計算グラフをハードウェア最適化データフローアーキテクチャに変換するフレームワークである。
1.8-4.8x と 1.5-3.6x の高速化を CPU と GPU のベースラインと比較した結果を示す。
論文 参考訳(メタデータ) (2023-08-11T04:24:39Z) - Harnessing Deep Learning and HPC Kernels via High-Level Loop and Tensor Abstractions on CPU Architectures [67.47328776279204]
この研究は、効率的でポータブルなDeep LearningとHigh Performance Computingカーネルを開発するためのフレームワークを導入している。
1)プロセッシングプリミティブ(TPP)を用いた計算コアの表現と,2)高レベルな宣言的手法でTPPのまわりの論理ループの表現の2つのステップでカーネルの開発を分解する。
我々は、スタンドアロンカーネルと、さまざまなCPUプラットフォームにおける最先端実装よりも優れたエンドツーエンドワークロードを使用して、このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T05:04:44Z) - {\mu}Split: efficient image decomposition for microscopy data [50.794670705085835]
muSplitは、蛍光顕微鏡画像の文脈で訓練された画像分解のための専用アプローチである。
本稿では,大規模な画像コンテキストのメモリ効率向上を実現するメタアーキテクチャである横型文脈化(LC)を提案する。
muSplitを5つの分解タスクに適用し、1つは合成データセットに、もう4つは実際の顕微鏡データから導出する。
論文 参考訳(メタデータ) (2022-11-23T11:26:24Z) - FastPathology: An open-source platform for deep learning-based research
and decision support in digital pathology [0.678543866474958]
全体スライディングの顕微鏡画像を扱うためのオープンソースのプラットフォームはいくつかあるが、CNNモデルのデプロイをサポートするものはほとんどない。
FASTフレームワークとC++を使った新しいプラットフォームであるFastPathologyを開発しました。
WSIの読み込みと処理,CNNモデルのデプロイ,結果のリアルタイムインタラクティブな可視化などにおいて,メモリ使用量の最小化を実現している。
論文 参考訳(メタデータ) (2020-11-11T19:35:31Z) - Heterogeneous CPU+GPU Stochastic Gradient Descent Algorithms [1.3249453757295084]
ヘテロジニアスCPU+GPUアーキテクチャの深層学習のためのトレーニングアルゴリズムについて検討する。
私たちの2倍の目標 -- 収束率と資源利用を同時に最大化する -- は、この問題を難しくします。
これらのアルゴリズムの実装は,複数の実データセットよりも高速な収束と資源利用の両立を実現していることを示す。
論文 参考訳(メタデータ) (2020-04-19T05:21:20Z) - RANSAC-Flow: generic two-stage image alignment [53.11926395028508]
単純な教師なしのアプローチは、様々なタスクにおいて驚くほどうまく機能することを示す。
その単純さにもかかわらず、我々の手法は様々なタスクやデータセットで競合する結果を示す。
論文 参考訳(メタデータ) (2020-04-03T12:37:58Z) - Faster than FAST: GPU-Accelerated Frontend for High-Speed VIO [46.20949184826173]
この研究は、既存のコンピュータビジョンアルゴリズムを改善するために、効率的な低レベルGPUハードウェア固有の命令の適用性に焦点を当てている。
特に、非マックス抑圧とその後の特徴選択は、全体的な画像処理遅延への顕著な寄与である。
論文 参考訳(メタデータ) (2020-03-30T14:16:23Z) - Efficient Video Semantic Segmentation with Labels Propagation and
Refinement [138.55845680523908]
本稿では,ハイブリッドGPU/CPUを用いた高精細ビデオのリアルタイムセマンティックセマンティックセマンティック化の問題に取り組む。
i) CPU上では、非常に高速な光フロー法であり、ビデオの時間的側面を利用して、あるフレームから次のフレームへ意味情報を伝達するために使用される。
高解像度フレーム(2048 x 1024)を持つ一般的なCityscapesデータセットでは、単一のGPUとCPU上で80から1000Hzの動作ポイントが提案されている。
論文 参考訳(メタデータ) (2019-12-26T11:45:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。