論文の概要: Renal digital pathology visual knowledge search platform based on language large model and book knowledge
- arxiv url: http://arxiv.org/abs/2406.18556v1
- Date: Mon, 27 May 2024 01:03:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 06:00:20.806249
- Title: Renal digital pathology visual knowledge search platform based on language large model and book knowledge
- Title(参考訳): 言語大モデルと書籍知識に基づく言語デジタル病理視覚知識検索プラットフォーム
- Authors: Xiaomin Lv, Chong Lai, Liya Ding, Maode Lai, Qingrong Sun,
- Abstract要約: 我々は,60冊の腎病理書をもとに,画像分割と対応するテキスト記述のペア化を行った。
GPT2, gemma, LLma, Qwenを含む4大モデルの意味的特徴について検討した。
テキスト記述に基づく病理画像検索のための意味検索システムを構築し,RppDと命名した。
- 参考スコア(独自算出の注目度): 0.1398098625978622
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large models have become mainstream, yet their applications in digital pathology still require exploration. Meanwhile renal pathology images play an important role in the diagnosis of renal diseases. We conducted image segmentation and paired corresponding text descriptions based on 60 books for renal pathology, clustering analysis for all image and text description features based on large models, ultimately building a retrieval system based on the semantic features of large models. Based above analysis, we established a knowledge base of 10,317 renal pathology images and paired corresponding text descriptions, and then we evaluated the semantic feature capabilities of 4 large models, including GPT2, gemma, LLma and Qwen, and the image-based feature capabilities of dinov2 large model. Furthermore, we built a semantic retrieval system to retrieve pathological images based on text descriptions, and named RppD (aidp.zjsru.edu.cn).
- Abstract(参考訳): 大型モデルは主流になったが、デジタル病理学の応用には探索が必要である。
一方,腎病理像は腎疾患の診断において重要な役割を担っている。
画像分割と対応テキスト記述のペア化を行い,60冊の腎病理書,大モデルに基づく全画像およびテキスト記述特徴のクラスタリング分析を行い,最終的に大モデルの意味的特徴に基づく検索システムを構築した。
以上の分析結果から,10,317個の腎病理画像とペア化されたテキスト記述の知識ベースを構築し,GPT2, gemma, LLma, Qwenを含む4大モデルの意味的特徴と,dinov2大モデルのイメージベース特徴能力を評価した。
さらに,テキスト記述に基づく病理画像検索のための意味検索システムを構築し,RppD (aidp.zjsru.edu.cn) と命名した。
関連論文リスト
- HistoGym: A Reinforcement Learning Environment for Histopathological Image Analysis [9.615399811006034]
HistoGymは、医師の実際の過程を模倣して、スライド画像全体の診断を促進することを目的としている。
私たちは、WSIベースのシナリオと選択された地域ベースのシナリオを含む、さまざまな臓器や癌のシナリオを提供しています。
論文 参考訳(メタデータ) (2024-08-16T17:19:07Z) - Towards a text-based quantitative and explainable histopathology image analysis [4.064178811354613]
テキストベースの定量的・説明可能な病理画像解析を提案し,これをTQxと呼ぶ。
検索した単語は、病理像を定量化し、理解可能な特徴埋め込みを生成するために使用される。
その結果、TQxは、計算病理学における一般的な視覚モデルに匹敵する病理像を定量化し、分析できることを示した。
論文 参考訳(メタデータ) (2024-07-10T04:33:43Z) - Medical Vision-Language Pre-Training for Brain Abnormalities [96.1408455065347]
本稿では,PubMedなどの公共リソースから,医用画像・テキスト・アライメントデータを自動的に収集する方法を示す。
特に,まず大きな脳画像テキストデータセットを収集することにより,事前学習プロセスの合理化を図るパイプラインを提案する。
また,医療領域におけるサブフィギュアをサブキャプションにマッピングするというユニークな課題についても検討した。
論文 参考訳(メタデータ) (2024-04-27T05:03:42Z) - Knowledge-enhanced Visual-Language Pretraining for Computational Pathology [68.6831438330526]
本稿では,公共資源から収集した大規模画像テキストペアを利用した視覚的表現学習の課題について考察する。
ヒト32組織から病理診断を必要とする4,718の疾患に対して50,470個の情報属性からなる病理知識ツリーをキュレートする。
論文 参考訳(メタデータ) (2024-04-15T17:11:25Z) - Hierarchical Text-to-Vision Self Supervised Alignment for Improved Histopathology Representation Learning [64.1316997189396]
病理組織像のための新しい言語型自己教師学習フレームワーク,階層型言語型自己監督(HLSS)を提案する。
その結果,OpenSRH と TCGA の2つの医用画像ベンチマークにおいて,最先端の性能が得られた。
論文 参考訳(メタデータ) (2024-03-21T17:58:56Z) - In-context learning enables multimodal large language models to classify
cancer pathology images [0.7085801706650957]
言語処理では、コンテキスト内学習(in-context learning)は、モデルがプロンプト内で学習し、パラメータ更新の必要性を回避できる代替手段を提供する。
そこで本研究では,GPT-4V(Generative Pretrained Transformer 4 with Vision (GPT-4V)) を用いたがん画像処理モデルの評価を行った。
この結果から,テキスト内学習は特定のタスクで訓練された特殊なニューラルネットワークに適合したり,あるいは性能を向上するのに十分であり,最小限のサンプルしか必要としないことがわかった。
論文 参考訳(メタデータ) (2024-03-12T08:34:34Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Towards a Visual-Language Foundation Model for Computational Pathology [5.72536252929528]
病理組織学(CONCH)におけるコントラスト学習について紹介する。
CONCHは、様々な組織像、生医学的テキスト、タスクに依存しない事前トレーニングのソースを用いて開発された視覚言語基盤モデルである。
13種類の多様なベンチマークで評価され, 画像分類, セグメンテーション, キャプション, テキスト・ツー・イメージ検索, 画像・テキスト検索における最先端のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2023-07-24T16:13:43Z) - Region-based Contrastive Pretraining for Medical Image Retrieval with
Anatomic Query [56.54255735943497]
医用画像検索のための地域別コントラスト事前トレーニング(RegionMIR)
医用画像検索のための領域ベースコントラスト事前トレーニング(RegionMIR)について紹介する。
論文 参考訳(メタデータ) (2023-05-09T16:46:33Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。