論文の概要: Automated Report Generation for Lung Cytological Images Using a CNN Vision Classifier and Multiple-Transformer Text Decoders: Preliminary Study
- arxiv url: http://arxiv.org/abs/2403.18151v1
- Date: Tue, 26 Mar 2024 23:32:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 18:55:29.764298
- Title: Automated Report Generation for Lung Cytological Images Using a CNN Vision Classifier and Multiple-Transformer Text Decoders: Preliminary Study
- Title(参考訳): CNNビジョン分類器とマルチトランスフォーマーテキストデコーダを用いた肺細胞画像の自動生成:予備的検討
- Authors: Atsushi Teramoto, Ayano Michiba, Yuka Kiriyama, Tetsuya Tsukamoto, Kazuyoshi Imaizumi, Hiroshi Fujita,
- Abstract要約: 感度と特異度はそれぞれ100%,96.4%であった。
生成されたテキストの文法とスタイルは、金本位とよりよく一致して正しいものと確認された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cytology plays a crucial role in lung cancer diagnosis. Pulmonary cytology involves cell morphological characterization in the specimen and reporting the corresponding findings, which are extremely burdensome tasks. In this study, we propose a report-generation technique for lung cytology images. In total, 71 benign and 135 malignant pulmonary cytology specimens were collected. Patch images were extracted from the captured specimen images, and the findings were assigned to each image as a dataset for report generation. The proposed method consists of a vision model and a text decoder. In the former, a convolutional neural network (CNN) is used to classify a given image as benign or malignant, and the features related to the image are extracted from the intermediate layer. Independent text decoders for benign and malignant cells are prepared for text generation, and the text decoder switches according to the CNN classification results. The text decoder is configured using a Transformer that uses the features obtained from the CNN for report generation. Based on the evaluation results, the sensitivity and specificity were 100% and 96.4%, respectively, for automated benign and malignant case classification, and the saliency map indicated characteristic benign and malignant areas. The grammar and style of the generated texts were confirmed as correct and in better agreement with gold standard compared to existing LLM-based image-captioning methods and single-text-decoder ablation model. These results indicate that the proposed method is useful for pulmonary cytology classification and reporting.
- Abstract(参考訳): 細胞診は肺癌の診断において重要な役割を担っている。
肺細胞診は、標本の細胞形態学的特徴とそれに伴う所見を報告することを含み、非常に負担のかかる作業である。
本研究では,肺細胞診画像のレポート生成手法を提案する。
良性肺細胞診は71例,悪性肺細胞診は135例であった。
得られたサンプル画像からパッチ画像を抽出し,各画像にレポート生成のためのデータセットを割り当てた。
提案手法は視覚モデルとテキストデコーダから構成される。
前者では、所定の画像を良性又は悪性と分類するために畳み込みニューラルネットワーク(CNN)を用い、中間層から画像に関連する特徴を抽出する。
良性および悪性細胞の独立したテキストデコーダを作成し、CNN分類結果に従ってテキストデコーダを切り替える。
テキストデコーダは、CNNから得られた特徴をレポート生成に使用するTransformerを使用して構成される。
評価結果から, 自動良性および悪性の症例分類では, 感度は100%, 特異性は96.4%であった。
生成したテキストの文法とスタイルは、既存のLCMベースの画像キャプション法やシングルテキストデコーダアブレーションモデルと比較して、ゴールド標準とよく一致していることを確認した。
これらの結果は,肺細胞診の分類と報告に有用であることが示唆された。
関連論文リスト
- COIN: Counterfactual inpainting for weakly supervised semantic segmentation for medical images [3.5418498524791766]
本研究は, 新規なカウンターファクト・インパインティング・アプローチ(COIN)の開発である。
COINは、予測された分類ラベルを生成モデルを用いて異常から正常に反転させる。
本手法の有効性は,エストニアのタルツ大学病院から取得したCT画像から,合成標的と実際の腎腫瘍を分離することによって実証される。
論文 参考訳(メタデータ) (2024-04-19T12:09:49Z) - Automatic Report Generation for Histopathology images using pre-trained Vision Transformers and BERT [1.0819408603463427]
既存のトレーニング済みビジョントランスフォーマー(ViT)を用いて4096x4096サイズのWSIのパッチを符号化し,レポート生成のための双方向表現(BERT)モデルを構築することで,パフォーマンスとポータブルなレポート生成機構を構築することができることを示す。
本手法は,画像を記述するキャプションの生成と評価だけでなく,画像の組織型や患者の性別の分類にも有効である。
論文 参考訳(メタデータ) (2023-12-03T15:56:09Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - Finding-Aware Anatomical Tokens for Chest X-Ray Automated Reporting [13.151444796296868]
本稿では,解剖学的構造定位時に抽出した候補境界ボックスの検出を行う,Faster R-CNNの新たな適応法を提案する。
得られたバウンディングボックスの特徴表現を解剖学的トークンの発見セットとして使用します。
タスク対応の解剖学的トークンは、自動レポートパイプラインに統合された場合、最先端のパフォーマンスが得られることを示す。
論文 参考訳(メタデータ) (2023-08-30T11:35:21Z) - Cross-modulated Few-shot Image Generation for Colorectal Tissue
Classification [58.147396879490124]
XM-GANと名づけられた少数ショット生成法は,1塩基と1対の参照組織像を入力とし,高品質で多様な画像を生成する。
我々の知る限りでは、大腸組織像の少数ショット生成を最初に調査した人物である。
論文 参考訳(メタデータ) (2023-04-04T17:50:30Z) - Texture Characterization of Histopathologic Images Using Ecological
Diversity Measures and Discrete Wavelet Transform [82.53597363161228]
本稿では,病理組織像間でテクスチャを特徴付ける手法を提案する。
2つのHIデータセットに有望な精度で、そのような画像の固有特性を定量化することが可能である。
論文 参考訳(メタデータ) (2022-02-27T02:19:09Z) - Deep Learning models for benign and malign Ocular Tumor Growth
Estimation [3.1558405181807574]
臨床医はしばしば、医用画像データに適した画像処理アルゴリズムを選択する際に問題に直面している。
ここでは、適切なモデルを選択するための戦略を示す。
論文 参考訳(メタデータ) (2021-07-09T05:40:25Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Auxiliary Signal-Guided Knowledge Encoder-Decoder for Medical Report
Generation [107.3538598876467]
放射線技師の動作パターンを模倣する補助信号誘導知識デコーダ(ASGK)を提案する。
ASGKは、内的特徴融合と外部医療言語情報を統合して、医療知識の伝達と学習をガイドする。
論文 参考訳(メタデータ) (2020-06-06T01:00:15Z) - Representation Learning of Histopathology Images using Graph Neural
Networks [12.427740549056288]
本稿では,WSI表現学習のための2段階フレームワークを提案する。
色に基づく手法を用いて関連するパッチをサンプリングし、グラフニューラルネットワークを用いてサンプルパッチ間の関係を学習し、画像情報を単一のベクトル表現に集約する。
肺腺癌 (LUAD) と肺扁平上皮癌 (LUSC) の2つの亜型を鑑別するためのアプローチの有用性について検討した。
論文 参考訳(メタデータ) (2020-04-16T00:09:20Z) - Understanding the robustness of deep neural network classifiers for
breast cancer screening [52.50078591615855]
ディープニューラルネットワーク(DNN)は乳がん検診において有望であるが、その入力摂動に対する堅牢性は臨床的に実装される前によりよく理解する必要がある。
放射線技師レベルのマンモグラム画像分類器の4種類の入力摂動に対する感度を測定した。
また,低域通過フィルタの効果について詳細な解析を行い,臨床的に有意な特徴の視認性を低下させることを示した。
論文 参考訳(メタデータ) (2020-03-23T01:26:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。