論文の概要: Artificial intelligence as a gateway to scientific discovery: Uncovering
features in retinal fundus images
- arxiv url: http://arxiv.org/abs/2301.06675v1
- Date: Tue, 17 Jan 2023 03:15:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 15:06:41.844633
- Title: Artificial intelligence as a gateway to scientific discovery: Uncovering
features in retinal fundus images
- Title(参考訳): 科学発見の入り口としての人工知能:網膜基底像の特徴を明らかにする
- Authors: Parsa Delavari, Gulcenur Ozturan, Ozgur Yilmaz, Ipek Oruc
- Abstract要約: 本稿では,CNNがラベルの予測に成功しているメカニズムを明らかにするために,基礎画像の分類方法を提案する。
ケーススタディとして患者性を用いて提案手法を検証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Purpose: Convolutional neural networks can be trained to detect various
conditions or patient traits based on retinal fundus photographs, some of
which, such as the patient sex, are invisible to the expert human eye. Here we
propose a methodology for explainable classification of fundus images to
uncover the mechanism(s) by which CNNs successfully predict the labels. We used
patient sex as a case study to validate our proposed methodology.
Approach: First, we used a set of 4746 fundus images, including training,
validation and test partitions, to fine-tune a pre-trained CNN on the sex
classification task. Next, we utilized deep learning explainability tools to
hypothesize possible ways sex differences in the retina manifest. We measured
numerous retinal properties relevant to our hypotheses through image
segmentation to identify those significantly different between males and
females. To tackle the multiple comparisons problem, we shortlisted the
parameters by testing them on a set of 100 fundus images distinct from the
images used for fine-tuning. Finally, we used an additional 400 images, not
included in any previous set, to reveal significant sex differences in the
retina.
Results: We observed that the peripapillary area is darker in males compared
to females ($p=.023, d=.243$). We also observed that males have richer retinal
vasculature networks by showing a higher number of branches ($p=.016, d=.272$)
and nodes ($p=.014, d=.299$) and a larger total length of branches ($p=.045,
d=.206$) in the vessel graph. Also, vessels cover a greater area in the
superior temporal quadrant of the retina in males compared to females
($p=0.048, d=.194$).
Conclusions: Our methodology reveals retinal features in fundus photographs
that allow CNNs to predict traits currently unknown, but meaningful to experts.
- Abstract(参考訳): 目的:畳み込みニューラルネットワークは、眼底写真に基づいて様々な状態や患者の特徴を検出するように訓練することができる。
本稿では,CNNがラベルの予測に成功しているメカニズムを明らかにするために,基礎画像の分類方法を提案する。
提案手法を検証するために,患者セックスを用いたケーススタディを行った。
アプローチ: まず, トレーニング, 検証, テストパーティションを含む4746基の画像を用いて, 性別分類タスクで事前学習したCNNを微調整した。
次に、深層学習説明可能性ツールを用いて、網膜の表現における性差の仮説を立てた。
画像分割により, 仮説に関連する多数の網膜特性を測定し, 男女間で有意差が認められた。
複数の比較問題に対処するため, 微調整に使用する画像と異なる100基の画像に対して, パラメータをショートリスト化した。
最後に、前セットに含まれていない追加の400枚の画像を使用して、網膜の有意な性差を明らかにしました。
結果: 毛細血管周囲は雌(p=.023, d=.243$)に比べ, 雄の方が暗い。
また,男性の網膜血管ネットワークは,血管グラフの枝数(p=.016,d=.272$)とノード数(p=.014,d=.299$)および枝総長(p=.045,d=.206$)が増加した。
また、男性の網膜の上側頭四分域では、女性に比べて血管面積が広い(p=0.048, d=.194$)。
結論:本手法では,現在不明だが専門家にとって有意義な特徴をcnnが予測できる眼底写真における網膜の特徴を明らかにする。
関連論文リスト
- Improving Classification of Retinal Fundus Image Using Flow Dynamics
Optimized Deep Learning Methods [0.0]
糖尿病網膜症(英: Diabetic Retinopathy, DR)は、糖尿病において網膜に存在する血管網を損傷する障害である。
経験豊富な臨床医は、疾患の特定に使用される画像中の腫瘍を識別する必要があるため、カラー・ファンドス画像を用いてDR診断を行うのにしばらく時間がかかる可能性がある。
論文 参考訳(メタデータ) (2023-04-29T16:11:34Z) - Convolutional Neural Network-Based Automatic Classification of
Colorectal and Prostate Tumor Biopsies Using Multispectral Imagery: System
Development Study [7.566742780233967]
生検標本の多スペクトル画像から大腸癌と前立腺腫瘍を分類するためのCNNモデルを提案する。
その結果,前立腺および大腸のデータセットの平均検査精度は99.8%と99.5%と優れた成績を示した。
提案したCNNアーキテクチャは,大腸癌と前立腺癌を分類する上で,最も優れたシステムであった。
論文 参考訳(メタデータ) (2023-01-30T18:28:25Z) - Learning from few examples: Classifying sex from retinal images via deep
learning [3.9146761527401424]
基礎画像から患者の性別を分類するために,小データセット上でのDLの性能について紹介する。
約2500基の画像を用いて開発した本モデルでは,最大0.72点のAUCスコアが得られた。
これは、データセットサイズが1000倍近く減少しているにもかかわらず、わずか25%のパフォーマンス低下に相当する。
論文 参考訳(メタデータ) (2022-07-20T02:47:29Z) - Discriminative Kernel Convolution Network for Multi-Label Ophthalmic
Disease Detection on Imbalanced Fundus Image Dataset [13.687617973585983]
緑内障、糖尿病網膜症、白内障などの眼疾患が世界中の視覚障害の主な原因である。
本研究は,識別的カーネル畳み込みネットワーク (DKCNet) を提案する。
また、全く見えない眼底像にも良い効果が認められる。
論文 参考訳(メタデータ) (2022-07-16T12:03:27Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - Assessing glaucoma in retinal fundus photographs using Deep Feature
Consistent Variational Autoencoders [63.391402501241195]
緑内障は症状が重くなるまで無症状のままでいるため、検出が困難である。
緑内障の早期診断は機能的,構造的,臨床的評価に基づいて行われることが多い。
ディープラーニング手法はこのジレンマを、マーカー識別段階をバイパスし、ハイレベルな情報を分析してデータを分類することで部分的に解決している。
論文 参考訳(メタデータ) (2021-10-04T16:06:49Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Ink Marker Segmentation in Histopathology Images Using Deep Learning [1.0118241139691948]
本稿では, 深層ネットワークを通じて, 病的パッチのインクマーク領域を分割することを提案する。
スライド画像全体の79ドルのデータセットと4,305ドルのパッチが作成され、さまざまなネットワークがトレーニングされた。
その結果、EffiecentNet-B3をベースとしたFPNモデルは、F1スコア94.53%の優れた構成であることが判明した。
論文 参考訳(メタデータ) (2020-10-29T18:09:59Z) - Interpretation of 3D CNNs for Brain MRI Data Classification [56.895060189929055]
T1脳MRIにおける拡散テンソル画像の男女差について,これまでの知見を拡張した。
ボクセルの3次元CNN解釈を3つの解釈法の結果と比較する。
論文 参考訳(メタデータ) (2020-06-20T17:56:46Z) - InsideBias: Measuring Bias in Deep Networks and Application to Face
Gender Biometrics [73.85525896663371]
この研究は、ディープニューラルネットワークアーキテクチャに基づく学習プロセスのバイアスについて検討する。
一般的なディープニューラルネットワークに基づく2つの性別検出モデルを採用している。
バイアスモデルを検出する新しい手法であるInsideBiasを提案する。
論文 参考訳(メタデータ) (2020-04-14T15:20:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。