論文の概要: Chest X-Rays Image Classification from beta-Variational Autoencoders
Latent Features
- arxiv url: http://arxiv.org/abs/2109.14760v1
- Date: Wed, 29 Sep 2021 23:28:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-02 06:29:24.286047
- Title: Chest X-Rays Image Classification from beta-Variational Autoencoders
Latent Features
- Title(参考訳): beta-variational autoencoders latent features による胸部x線画像の分類
- Authors: Leonardo Crespi, Daniele Loiacono, Arturo Chiti
- Abstract要約: 胸部X線(CXR)画像から情報を抽出するために,ディープラーニング(DL)技術を用いて検討し,解析する。
ラベル付きCXRイメージの公開コレクションとしては最大規模のCheXpertデータセット上で,いくつかのβ-Variational Autoencoder(beta-VAE)モデルをトレーニングした。
遅延機能は抽出され、他の機械学習モデルをトレーニングするために使用され、β-VAEによって抽出された特徴から元のイメージを分類することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Chest X-Ray (CXR) is one of the most common diagnostic techniques used in
everyday clinical practice all around the world. We hereby present a work which
intends to investigate and analyse the use of Deep Learning (DL) techniques to
extract information from such images and allow to classify them, trying to keep
our methodology as general as possible and possibly also usable in a real world
scenario without much effort, in the future. To move in this direction, we
trained several beta-Variational Autoencoder (beta-VAE) models on the CheXpert
dataset, one of the largest publicly available collection of labeled CXR
images; from these models, latent features have been extracted and used to
train other Machine Learning models, able to classify the original images from
the features extracted by the beta-VAE. Lastly, tree-based models have been
combined together in ensemblings to improve the results without the necessity
of further training or models engineering. Expecting some drop in pure
performance with the respect to state of the art classification specific
models, we obtained encouraging results, which show the viability of our
approach and the usability of the high level features extracted by the
autoencoders for classification tasks.
- Abstract(参考訳): 胸部x線(cxr)は、世界中の日常臨床で用いられる最も一般的な診断技術の一つである。
本稿では,これらの画像から情報を抽出し,それらを分類するために,Deep Learning (DL) 技術を用いて調査・分析することを目的とした研究について述べる。
この方向に進むために、我々はCheXpertデータセット上でいくつかのベータ変数オートエンコーダ(β-VAE)モデルをトレーニングした。これはラベル付きCXRイメージの公開コレクションとして最大である。これらのモデルから、潜伏した特徴を抽出し、他の機械学習モデルをトレーニングするために使用し、ベータ-VAEによって抽出された特徴から元のイメージを分類することができる。
最後に、木ベースのモデルは、さらなるトレーニングやモデルエンジニアリングを必要とせずに結果を改善するために、センセンブラリングに組み合わされた。
技術分類特化モデルの状態を反映した純粋性能の低下を期待して,本手法の有効性と,自動エンコーダが抽出した高次特徴の活用性を示した。
関連論文リスト
- Improving Interpretability and Robustness for the Detection of AI-Generated Images [6.116075037154215]
凍結したCLIP埋め込みに基づいて、既存の最先端AIGI検出手法を解析する。
さまざまなAIジェネレータが生成する画像が実際の画像とどのように異なるかを示す。
論文 参考訳(メタデータ) (2024-06-21T10:33:09Z) - Retrieval-Enhanced Contrastive Vision-Text Models [61.783728119255365]
そこで本研究では,メモリから取得したクロスモーダルな情報を推論時に表現することで,その埋め込みを洗練できる視覚テキストモデルを提案する。
注目すべきことに、これは凍ったCLIPの上に軽量の単層核融合トランスを用いて行うことができる。
検索強化コントラスト訓練(RECO)がCLIPの性能を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-06-12T15:52:02Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - DINOv2: Learning Robust Visual Features without Supervision [75.42921276202522]
この研究は、既存の事前学習手法、特に自己教師付き手法が、多様なソースから十分なキュレートされたデータで訓練すれば、そのような特徴を生み出すことができることを示している。
技術的な貢献の多くは、大規模なトレーニングを加速し、安定化することを目的としています。
データの観点からは、自己組織化されていないデータではなく、専用で多様でキュレートされた画像データセットを構築するための自動パイプラインを提案する。
論文 参考訳(メタデータ) (2023-04-14T15:12:19Z) - Strong Baseline and Bag of Tricks for COVID-19 Detection of CT Scans [2.696776905220987]
従来のディープラーニングフレームワークは、CT画像のスライス数や解像度の変化によって互換性の問題に直面する。
この制限に対処するために,各CTデータセットに対して新しいスライス選択法を提案する。
上記の方法に加えて、様々な高性能分類モデルについて検討し、最終的には有望な結果を得る。
論文 参考訳(メタデータ) (2023-03-15T09:52:28Z) - Learning disentangled representations for explainable chest X-ray
classification using Dirichlet VAEs [68.73427163074015]
本研究では,胸部X線像の非絡み合った潜在表現の学習にDirVAE(Dirichlet Variational Autoencoder)を用いることを検討した。
DirVAEモデルにより学習された多モード潜在表現の予測能力について,補助的多ラベル分類タスクの実装により検討した。
論文 参考訳(メタデータ) (2023-02-06T18:10:08Z) - Multi-task UNet: Jointly Boosting Saliency Prediction and Disease
Classification on Chest X-ray Images [3.8637285238278434]
本稿では,胸部X線(CXR)画像のビジュアル・サリエンシ予測のための新しい深層学習モデルについて述べる。
データ不足に対処するため,マルチタスク学習手法を応用し,同時にCXRの疾患分類に取り組む。
提案したディープラーニングモデルと新しい学習手法を併用した実験により,サリエンシ予測や画像分類のための既存手法よりも優れることを示す。
論文 参考訳(メタデータ) (2022-02-15T01:12:42Z) - Multi-Branch Deep Radial Basis Function Networks for Facial Emotion
Recognition [80.35852245488043]
放射状基底関数(RBF)ユニットによって形成された複数の分岐で拡張されたCNNベースのアーキテクチャを提案する。
RBFユニットは、中間表現を用いて類似のインスタンスで共有される局所パターンをキャプチャする。
提案手法は,提案手法の競争力を高めるためのローカル情報の導入であることを示す。
論文 参考訳(メタデータ) (2021-09-07T21:05:56Z) - Self-Supervised Representation Learning using Visual Field Expansion on
Digital Pathology [7.568373895297608]
このような画像を分析する上で重要な課題は、そのサイズであり、そのサイズはギガピクセルに収まる。
本稿では,このようなタイルの強力な表現を学習し,視界を確実に拡張する新しい生成フレームワークを提案する。
我々のモデルは、異なる臨床エンドポイントに使用できる強力な表現を同時に学習しながら、細部で異なる組織タイプを生成することを学習する。
論文 参考訳(メタデータ) (2021-09-07T19:20:01Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Image Embedding and Model Ensembling for Automated Chest X-Ray
Interpretation [0.0]
我々は、自動胸部X線診断モデルを開発するための機械学習アプローチをいくつか提示および研究する。
特に,chexpertデータセット上で複数の畳み込みニューラルネットワーク(cnn)をトレーニングした。
学習したCNNを用いてCXR画像の埋め込みを計算し、2組のツリーベース分類器を訓練した。
論文 参考訳(メタデータ) (2021-05-05T14:48:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。