論文の概要: Efficient Pyramidal Analysis of Gigapixel Images on a Decentralized Modest Computer Cluster
- arxiv url: http://arxiv.org/abs/2509.02440v1
- Date: Tue, 02 Sep 2025 15:44:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:04.088362
- Title: Efficient Pyramidal Analysis of Gigapixel Images on a Decentralized Modest Computer Cluster
- Title(参考訳): 分散型モデストコンピュータクラスタ上でのギガピクセル画像の効率的なピラミッド解析
- Authors: Marie Reinbigler, Rishi Sharma, Rafael Pires, Elisabeth Brunet, Anne-Marie Kermarrec, Catalin Fetita,
- Abstract要約: 計算コストを削減したギガピクセル画像解析技術であるPraamidAIを紹介する。
以上の結果から,ピラミッドAIは分析に必要な処理データ量を最大2.65倍に削減できることがわかった。
シミュレータを用いて,作業者数に応じて最適なデータ分散と負荷分散のアルゴリズムを推定した。
- 参考スコア(独自算出の注目度): 3.4394114205053614
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Analyzing gigapixel images is recognized as computationally demanding. In this paper, we introduce PyramidAI, a technique for analyzing gigapixel images with reduced computational cost. The proposed approach adopts a gradual analysis of the image, beginning with lower resolutions and progressively concentrating on regions of interest for detailed examination at higher resolutions. We investigated two strategies for tuning the accuracy-computation performance trade-off when implementing the adaptive resolution selection, validated against the Camelyon16 dataset of biomedical images. Our results demonstrate that PyramidAI substantially decreases the amount of processed data required for analysis by up to 2.65x, while preserving the accuracy in identifying relevant sections on a single computer. To ensure democratization of gigapixel image analysis, we evaluated the potential to use mainstream computers to perform the computation by exploiting the parallelism potential of the approach. Using a simulator, we estimated the best data distribution and load balancing algorithm according to the number of workers. The selected algorithms were implemented and highlighted the same conclusions in a real-world setting. Analysis time is reduced from more than an hour to a few minutes using 12 modest workers, offering a practical solution for efficient large-scale image analysis.
- Abstract(参考訳): ギガピクセル画像の解析は、計算に要求されるものとして認識される。
本稿では,計算コストを削減したギガピクセル画像解析技術であるPraamidAIを紹介する。
提案手法では,画像の段階的解析を,低解像度から始まり,高解像度で詳細な検査を行うための関心領域に徐々に集中する。
生体画像のキャメリオン16データセットに対して適応分解能選択を行う際の精度計算性能トレードオフを調整するための2つの方法を検討した。
以上の結果から,PraamidAIは解析に必要な処理データ量を最大2.65倍に削減し,関連するセクションを識別する精度を1台のコンピュータに保持できることが示唆された。
ギガピクセル画像解析の民主化を確保するため,本手法の並列化可能性を利用して,主流のコンピュータを用いて計算を行う可能性を評価した。
シミュレータを用いて,作業者数に応じて最適なデータ分散と負荷分散のアルゴリズムを推定した。
選択したアルゴリズムが実装され、現実世界でも同じ結論が浮き彫りにされた。
解析時間は1時間以上から数分に短縮され、12人の控えめな作業者を用いて、大規模な画像解析を効率的に行うための実用的なソリューションを提供する。
関連論文リスト
- SaccadeDet: A Novel Dual-Stage Architecture for Rapid and Accurate Detection in Gigapixel Images [50.742420049839474]
SaccadeDetは、人間の目の動きにインスパイアされた、ギガピクセルレベルの物体検出のための革新的なアーキテクチャである。
PANDAデータセットを用いて評価した本手法は,最先端手法の8倍の高速化を実現する。
また、全スライドイメージングへの応用を通じて、ギガピクセルレベルの病理解析に有意な可能性を示す。
論文 参考訳(メタデータ) (2024-07-25T11:22:54Z) - Parameter-Inverted Image Pyramid Networks [49.35689698870247]
Inverted Image Pyramid Networks (PIIP) と呼ばれる新しいネットワークアーキテクチャを提案する。
私たちの中核となる考え方は、パラメータサイズの異なるモデルを使用して、画像ピラミッドの解像度の異なるレベルを処理することです。
PIIPは、オブジェクト検出、セグメンテーション、画像分類などのタスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-06-06T17:59:10Z) - Implementation of the Principal Component Analysis onto High-Performance Computer Facilities for Hyperspectral Dimensionality Reduction: Results and Comparisons [0.0]
本研究は,主成分分析(PCA)アルゴリズムを2種類の高性能デバイスに実装するものである。
得られた結果は,PCA アルゴリズムのフィールドプログラマブルゲートアレイ (FPGA) による実装と比較された。
論文 参考訳(メタデータ) (2024-03-27T07:50:45Z) - A Strategy Optimized Pix2pix Approach for SAR-to-Optical Image
Translation Task [0.9176056742068814]
マルチモーダル・ラーニング・フォー・アース・アース・チャレンジ(MultiEarth 2022)における画像と画像の翻訳タスクの分析とアプローチについて要約する。
戦略最適化の観点では、クラウド分類は、教師あり学習のようなアプローチを支援するために、濃密なクラウドカバレッジを持つ光学画像のフィルタリングに利用される。
その結果,リモートセンシングタスクにおけるSAR-to-optical Translationへの大きな可能性,特に長期環境モニタリングと保護の支援が示唆された。
論文 参考訳(メタデータ) (2022-06-27T04:41:37Z) - A Novel Algorithm for Exact Concave Hull Extraction [0.0]
領域抽出は、自律運転における物体検出から細胞生物学における細胞内形態解析まで、幅広い用途で必要とされる。
2つの主要なアプローチがある: 凸殻抽出(convex hull extract)は、正確で効率的なアルゴリズムが存在し、実世界の形状を捉えるのに優れているが、単一の解を持たない。
本研究では,コンケーブ内包を最大分解能(ピクセル完全)で提供し,速度効率のトレードオフを調整可能な新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-23T05:26:48Z) - High Quality Segmentation for Ultra High-resolution Images [72.97958314291648]
超高分解能セグメンテーション精錬作業のための連続精細モデルを提案する。
提案手法は画像分割精細化において高速かつ効果的である。
論文 参考訳(メタデータ) (2021-11-29T11:53:06Z) - A parameter refinement method for Ptychography based on Deep Learning
concepts [55.41644538483948]
伝播距離、位置誤差、部分的コヒーレンスにおける粗いパラメトリゼーションは、しばしば実験の生存性を脅かす。
最新のDeep Learningフレームワークは、セットアップの不整合を自律的に補正するために使用され、ポチコグラフィーの再構築の質が向上する。
我々は,elettra シンクロトロン施設のツインミックビームラインで取得した合成データセットと実データの両方でシステムをテストした。
論文 参考訳(メタデータ) (2021-05-18T10:15:17Z) - Superpixels and Graph Convolutional Neural Networks for Efficient
Detection of Nutrient Deficiency Stress from Aerial Imagery [3.6843744304889183]
リモートセンシングデータから栄養不足地域を特定し、注意が必要な地域へ農家に警告します。
ノードベースの分類を行うために,より軽量なグラフベースの手法を提案する。
このモデルは、cnnモデルよりも4桁少ないパラメータを持ち、数分で列車が走る。
論文 参考訳(メタデータ) (2021-04-20T21:18:16Z) - Quantum Algorithms for Data Representation and Analysis [68.754953879193]
機械学習におけるデータ表現のための固有problemsの解を高速化する量子手続きを提供する。
これらのサブルーチンのパワーと実用性は、主成分分析、対応解析、潜在意味解析のための入力行列の大きさのサブ線形量子アルゴリズムによって示される。
その結果、入力のサイズに依存しない実行時のパラメータは妥当であり、計算モデル上の誤差が小さいことが示され、競合的な分類性能が得られる。
論文 参考訳(メタデータ) (2021-04-19T00:41:43Z) - Gigapixel Histopathological Image Analysis using Attention-based Neural
Networks [7.1715252990097325]
圧縮経路と学習経路からなるCNN構造を提案する。
本手法は,グローバル情報とローカル情報の両方を統合し,入力画像のサイズに関して柔軟であり,弱い画像レベルラベルのみを必要とする。
論文 参考訳(メタデータ) (2021-01-25T10:18:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。