論文の概要: Adjustable Robust Transformer for High Myopia Screening in Optical
Coherence Tomography
- arxiv url: http://arxiv.org/abs/2312.07052v1
- Date: Tue, 12 Dec 2023 08:08:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 16:59:51.628935
- Title: Adjustable Robust Transformer for High Myopia Screening in Optical
Coherence Tomography
- Title(参考訳): 光コヒーレンストモグラフィーにおける高近視スクリーニングのための調整可能なロバスト変換器
- Authors: Xiao Ma, Zetian Zhang, Zexuan Ji, Kun Huang, Na Su, Songtao Yuan,
Qiang Chen
- Abstract要約: 近視 (myopia) は、過度に長い眼球によって引き起こされる視覚障害の徴候である。
球面の等価度と軸長の測定は 高いミオピアを特定するための 金の基準です
高いミオピアを定義する基準は研究から研究まで様々であり、自動スクリーニングにサンプルを含めるには、適切な解釈可能性の評価が必要である。
- 参考スコア(独自算出の注目度): 19.526016192493874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Myopia is a manifestation of visual impairment caused by an excessively
elongated eyeball. Image data is critical material for studying high myopia and
pathological myopia. Measurements of spherical equivalent and axial length are
the gold standards for identifying high myopia, but the available image data
for matching them is scarce. In addition, the criteria for defining high myopia
vary from study to study, and therefore the inclusion of samples in automated
screening efforts requires an appropriate assessment of interpretability. In
this work, we propose a model called adjustable robust transformer (ARTran) for
high myopia screening of optical coherence tomography (OCT) data. Based on
vision transformer, we propose anisotropic patch embedding (APE) to capture
more discriminative features of high myopia. To make the model effective under
variable screening conditions, we propose an adjustable class embedding (ACE)
to replace the fixed class token, which changes the output to adapt to
different conditions. Considering the confusion of the data at high myopia and
low myopia threshold, we introduce the label noise learning strategy and
propose a shifted subspace transition matrix (SST) to enhance the robustness of
the model. Besides, combining the two structures proposed above, the model can
provide evidence for uncertainty evaluation. The experimental results
demonstrate the effectiveness and reliability of the proposed method. Code is
available at: https://github.com/maxiao0234/ARTran.
- Abstract(参考訳): 近視 (myopia) は、眼球が細長いことによる視覚障害の症状である。
画像データは高近視と病理近視の研究に重要な材料である。
球面同値と軸長の測定は、高い近視を識別するための金の基準であるが、それらとマッチングするための画像データは乏しい。
さらに, 高近視の定義基準は研究によって異なり, 自動検診にサンプルを含めるには, 適切な解釈可能性の評価が必要である。
本研究では,光コヒーレンストモグラフィー(OCT)データの高ミオピアスクリーニングのためのArtiable robust transformer (ARTran) モデルを提案する。
視覚トランスフォーマに基づいて,高近視のより識別的な特徴を捉えるための異方性パッチ埋め込み(ape)を提案する。
可変スクリーニング条件下でモデルを効果的にするために、固定されたクラストークンを置き換えるための調整可能なクラス埋め込み(ACE)を提案し、異なる条件に適応するように出力を変更する。
高ミオピアおよび低ミオピア閾値におけるデータの混乱を考慮すると、ラベルノイズ学習戦略を導入し、モデルの堅牢性を高めるためのシフトサブスペース遷移行列(SST)を提案する。
さらに、上記の2つの構造を組み合わせることで、不確実性評価の証拠が得られる。
実験の結果,提案手法の有効性と信頼性が示された。
コードはhttps://github.com/maxiao0234/artran.com/。
関連論文リスト
- Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - InceptionCaps: A Performant Glaucoma Classification Model for
Data-scarce Environment [0.0]
緑内障は不可逆的な眼疾患で 世界第2位の視覚障害の原因です
本稿では,InceptionV3を畳み込みベースとしたカプセルネットワーク(CapsNet)をベースとした新しいディープラーニングモデルであるInceptionCapsを提案する。
InceptionCapsは0.956、特異性0.96、AUC0.9556を達成し、RIM-ONE v2データセット上での最先端のディープラーニングモデルのパフォーマンスを上回った。
論文 参考訳(メタデータ) (2023-11-24T11:58:11Z) - OTRE: Where Optimal Transport Guided Unpaired Image-to-Image Translation
Meets Regularization by Enhancing [4.951748109810726]
正確な診断と自動解析のために、最適な網膜画像品質が義務付けられている。
そこで本研究では,低品質の網膜CFPを高画質のCFPにマッピングするための画像対画像変換手法を提案する。
統合されたフレームワークOTREを3つの公開網膜画像データセット上で検証した。
論文 参考訳(メタデータ) (2023-02-06T18:39:40Z) - Stacking Ensemble Learning in Deep Domain Adaptation for Ophthalmic
Image Classification [61.656149405657246]
ドメイン適応は、十分なラベルデータを取得することが困難な画像分類タスクに有効である。
本稿では,3つのドメイン適応手法を拡張することで,アンサンブル学習を積み重ねるための新しい手法SELDAを提案する。
Age-Related Eye Disease Study (AREDS)ベンチマーク眼科データセットを用いた実験結果から,提案モデルの有効性が示された。
論文 参考訳(メタデータ) (2022-09-27T14:19:00Z) - FedMed-ATL: Misaligned Unpaired Brain Image Synthesis via Affine
Transform Loss [58.58979566599889]
脳画像合成のための新しい自己教師型学習(FedMed)を提案する。
アフィン変換損失(ATL)は、プライバシー法に違反することなく、ひどく歪んだ画像を使用するように定式化された。
提案手法は, 極めて不整合かつ不整合なデータ設定下での合成結果の品質の両方において, 高度な性能を示す。
論文 参考訳(メタデータ) (2022-01-29T13:45:39Z) - Assessing glaucoma in retinal fundus photographs using Deep Feature
Consistent Variational Autoencoders [63.391402501241195]
緑内障は症状が重くなるまで無症状のままでいるため、検出が困難である。
緑内障の早期診断は機能的,構造的,臨床的評価に基づいて行われることが多い。
ディープラーニング手法はこのジレンマを、マーカー識別段階をバイパスし、ハイレベルな情報を分析してデータを分類することで部分的に解決している。
論文 参考訳(メタデータ) (2021-10-04T16:06:49Z) - An Interpretable Multiple-Instance Approach for the Detection of
referable Diabetic Retinopathy from Fundus Images [72.94446225783697]
基礎画像における参照糖尿病網膜症検出のための機械学習システムを提案する。
画像パッチから局所情報を抽出し,アテンション機構により効率的に組み合わせることで,高い分類精度を実現することができる。
我々は,現在入手可能な網膜画像データセットに対するアプローチを評価し,最先端の性能を示す。
論文 参考訳(メタデータ) (2021-03-02T13:14:15Z) - Cost-Sensitive Regularization for Diabetic Retinopathy Grading from Eye
Fundus Images [20.480034690570196]
本稿では,眼底画像から糖尿病網膜症(DR)の重症度を予測するための制約を強制するための簡単なアプローチを提案する。
正規化要因として機能する余分な用語で標準分類損失を拡大する。
DRグレーディングに関連する各サブプロブレムにおいて,ラベルノイズのモデル化に我々の手法を適用する方法について述べる。
論文 参考訳(メタデータ) (2020-10-01T10:42:06Z) - Dueling Deep Q-Network for Unsupervised Inter-frame Eye Movement
Correction in Optical Coherence Tomography Volumes [5.371290280449071]
オプティカルコヒーレンス・トモグラフィー(OCT)では、個々のスライスを連続的に取得することで、運動アーティファクトにこのモダリティが生じる。
この画像モダリティの特徴であるスペックルノイズは、従来の登録技術が採用されている際に不正確となる。
本稿では、深層強化学習を用いて、フレーム間の動きを教師なしで補正することで、これらの課題に対処する。
論文 参考訳(メタデータ) (2020-07-03T07:14:30Z) - Modeling and Enhancing Low-quality Retinal Fundus Images [167.02325845822276]
低画質の眼底画像は臨床観察における不確実性を高め、誤診のリスクを引き起こす。
本稿では,グローバルな劣化要因を抑えるために,臨床指向の基盤拡張ネットワーク(cofe-Net)を提案する。
合成画像と実画像の両方の実験により、我々のアルゴリズムは網膜の細部を失うことなく、低品質の眼底画像を効果的に補正することを示した。
論文 参考訳(メタデータ) (2020-05-12T08:01:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。