論文の概要: Evaluating Generic Auto-ML Tools for Computational Pathology
- arxiv url: http://arxiv.org/abs/2112.03622v1
- Date: Tue, 7 Dec 2021 10:41:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 15:21:32.567233
- Title: Evaluating Generic Auto-ML Tools for Computational Pathology
- Title(参考訳): 計算病理のためのジェネリックオートMLツールの評価
- Authors: Lars Ole Schwen, Daniela Schacherer, Christian Gei{\ss}ler and Andr\'e
Homeyer
- Abstract要約: 我々は,ニューラルネットワークアーキテクチャ探索とハイパーパラメータ最適化のための汎用ツールが,計算病理学における一般的なユースケースに対してどのように機能するかを評価する。
組織画像の3つの異なる分類タスクに対して,オンプレミスとクラウドベースのツールを1つ評価した。
評価済みのAutoMLツールのデフォルトのCNNアーキテクチャとパラメータ化は、オリジナルの出版物と同等の分類性能を持つことがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image analysis tasks in computational pathology are commonly solved using
convolutional neural networks (CNNs). The selection of a suitable CNN
architecture and hyperparameters is usually done through exploratory iterative
optimization, which is computationally expensive and requires substantial
manual work. The goal of this article is to evaluate how generic tools for
neural network architecture search and hyperparameter optimization perform for
common use cases in computational pathology. For this purpose, we evaluated one
on-premises and one cloud-based tool for three different classification tasks
for histological images: tissue classification, mutation prediction, and
grading.
We found that the default CNN architectures and parameterizations of the
evaluated AutoML tools already yielded classification performance on par with
the original publications. Hyperparameter optimization for these tasks did not
substantially improve performance, despite the additional computational effort.
However, performance varied substantially between classifiers obtained from
individual AutoML runs due to non-deterministic effects.
Generic CNN architectures and AutoML tools could thus be a viable alternative
to manually optimizing CNN architectures and parametrizations. This would allow
developers of software solutions for computational pathology to focus efforts
on harder-to-automate tasks such as data curation.
- Abstract(参考訳): 計算病理学における画像解析タスクは畳み込みニューラルネットワーク(cnns)を用いて一般に解決される。
適切なCNNアーキテクチャとハイパーパラメータの選択は通常、探索的反復最適化によって行われる。
本稿の目的は,ニューラルネットワークアーキテクチャ探索とハイパーパラメータ最適化のための汎用ツールが,計算病理学の一般的なユースケースにおいてどのように機能するかを評価することである。
この目的のために,組織画像の分類,変異予測,分類の3つの異なる分類タスクに対して,オンプレミスとクラウドベースのツールを1つ評価した。
評価済みのAutoMLツールのデフォルトのCNNアーキテクチャとパラメータ化は、オリジナルの出版物と同等の分類性能を持つことがわかった。
これらのタスクに対するハイパーパラメータ最適化は、さらなる計算努力にもかかわらず、性能を大幅に改善することはなかった。
しかし,非決定論的効果により,個々のAutoML実行から得られる分類器間で性能は著しく変化した。
したがって、ジェネリックCNNアーキテクチャとAutoMLツールは、手動でCNNアーキテクチャとパラメトリゼーションを最適化する代替となるかもしれない。
これにより、計算病理学のためのソフトウェアソリューションの開発者は、データキュレーションのような自動化の難しいタスクに集中することができる。
関連論文リスト
- POMONAG: Pareto-Optimal Many-Objective Neural Architecture Generator [4.09225917049674]
Transferable NASが登場し、データセット依存からタスク依存への探索プロセスを一般化した。
本稿では多目的拡散プロセスを通じて拡散NAGを拡張するPOMONAGを紹介する。
結果は、NAS201とMobileNetV3の2つの検索スペースで検証され、15の画像分類データセットで評価された。
論文 参考訳(メタデータ) (2024-09-30T16:05:29Z) - Growing Tiny Networks: Spotting Expressivity Bottlenecks and Fixing Them Optimally [2.645067871482715]
機械学習タスクでは、ある機能空間内で最適な関数を探索する。
この方法で、トレーニング中の機能の進化を、選択したアーキテクチャで表現可能な領域内に配置させます。
表現力のボトルネックによる望ましいアーキテクチャ変更に関する情報は, 後処理の % から抽出可能であることを示す。
論文 参考訳(メタデータ) (2024-05-30T08:23:56Z) - Score-Based Methods for Discrete Optimization in Deep Learning [30.446056972242616]
このような問題を解決するためのスコアベース近似フレームワークについて検討する。
逆集合分類タスクにおいて,本手法は,手法に比べて速度と解の質において優れたトレードオフを達成できることを実験的に実証した。
論文 参考訳(メタデータ) (2023-10-15T17:14:17Z) - Optimizations of Autoencoders for Analysis and Classification of
Microscopic In Situ Hybridization Images [68.8204255655161]
同様のレベルの遺伝子発現を持つ顕微鏡画像の領域を検出・分類するためのディープラーニングフレームワークを提案する。
分析するデータには教師なし学習モデルが必要です。
論文 参考訳(メタデータ) (2023-04-19T13:45:28Z) - Performance Embeddings: A Similarity-based Approach to Automatic
Performance Optimization [71.69092462147292]
パフォーマンス埋め込みは、アプリケーション間でパフォーマンスチューニングの知識伝達を可能にする。
本研究では, 深層ニューラルネットワーク, 密度およびスパース線形代数合成, および数値風速予測ステンシルのケーススタディにおいて, この伝達チューニング手法を実証する。
論文 参考訳(メタデータ) (2023-03-14T15:51:35Z) - Towards Theoretically Inspired Neural Initialization Optimization [66.04735385415427]
我々は,ニューラルネットワークの初期状態を評価するための理論的知見を備えた,GradCosineという微分可能な量を提案する。
標準制約下でGradCosineを最大化することにより、ネットワークのトレーニングとテストの両方の性能を向上させることができることを示す。
サンプル分析から実際のバッチ設定に一般化されたNIOは、無視可能なコストで、より優れた初期化を自動で探すことができる。
論文 参考訳(メタデータ) (2022-10-12T06:49:16Z) - Conservative Objective Models for Effective Offline Model-Based
Optimization [78.19085445065845]
計算設計の問題は、合成生物学からコンピュータアーキテクチャまで、様々な場面で発生している。
本研究では,分布外入力に対する接地的目標の実際の値を低くする目的関数のモデルを学習する手法を提案する。
COMは、様々なMBO問題に対して、既存のメソッドの実装と性能の面では単純である。
論文 参考訳(メタデータ) (2021-07-14T17:55:28Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Neural Architecture Search with an Efficient Multiobjective Evolutionary
Framework [0.0]
本稿では,効率的な多目的ニューラルアーキテクチャ探索フレームワークであるEMONASを提案する。
EMONASは、アーキテクチャのマクロ構造とマイクロ構造の両方を考慮した検索空間で構成されている。
MICCAI ACDCの課題から3次元心筋セグメンテーションの課題について検討した。
論文 参考訳(メタデータ) (2020-11-09T14:41:10Z) - NASirt: AutoML based learning with instance-level complexity information [0.0]
我々は、スペクトルデータセットの高精度CNNアーキテクチャを見つけるAutoML手法であるNASirtを提案する。
我々の手法は、ほとんどの場合、ベンチマークよりも優れた性能を示し、平均精度は97.40%に達する。
論文 参考訳(メタデータ) (2020-08-26T22:21:44Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。