論文の概要: Generalized Robust Fundus Photography-based Vision Loss Estimation for High Myopia
- arxiv url: http://arxiv.org/abs/2407.03699v2
- Date: Wed, 17 Jul 2024 06:59:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-18 21:38:02.850635
- Title: Generalized Robust Fundus Photography-based Vision Loss Estimation for High Myopia
- Title(参考訳): 一般ロバスト・ファンドス・フォトグラフィーによる高近視の視力損失推定
- Authors: Zipei Yan, Zhile Liang, Zhengji Liu, Shuai Wang, Rachel Ka-Man Chun, Jizhou Li, Chea-su Kee, Dong Liang,
- Abstract要約: VF推定の一般化ロバスト性を高めるための新しいパラメータ効率フレームワークを提案する。
本手法は, RMSE, MAE, 係数相関において, 内部および外部の検証において, 既存の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 6.193135671460362
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High myopia significantly increases the risk of irreversible vision loss. Traditional perimetry-based visual field (VF) assessment provides systematic quantification of visual loss but it is subjective and time-consuming. Consequently, machine learning models utilizing fundus photographs to estimate VF have emerged as promising alternatives. However, due to the high variability and the limited availability of VF data, existing VF estimation models fail to generalize well, particularly when facing out-of-distribution data across diverse centers and populations. To tackle this challenge, we propose a novel, parameter-efficient framework to enhance the generalized robustness of VF estimation on both in- and out-of-distribution data. Specifically, we design a Refinement-by-Denoising (RED) module for feature refinement and adaptation from pretrained vision models, aiming to learn high-entropy feature representations and to mitigate the domain gap effectively and efficiently. Through independent validation on two distinct real-world datasets from separate centers, our method significantly outperforms existing approaches in RMSE, MAE and correlation coefficient for both internal and external validation. Our proposed framework benefits both in- and out-of-distribution VF estimation, offering significant clinical implications and potential utility in real-world ophthalmic practices.
- Abstract(参考訳): 高近視は、不可逆的な視力喪失のリスクを著しく増大させる。
従来のペリメトリベースの視野評価(VF)は、視覚的損失の体系的な定量化を提供するが、主観的かつ時間を要する。
結果として、VFを推定するための基礎写真を利用した機械学習モデルが、有望な代替手段として登場した。
しかし、変動性が高く、VFデータの可用性が限られているため、既存のVF推定モデルは、特に様々なセンターや人口にまたがるアウト・オブ・ディストリビューションデータに直面すると、うまく一般化することができない。
この課題に対処するため,本研究では,VF推定の分散ロバスト性を高めるための,新しいパラメータ効率フレームワークを提案する。
具体的には、高エントロピー特徴表現を学習し、ドメインギャップを効果的かつ効率的に緩和することを目的として、事前訓練された視覚モデルから特徴改善と適応のためのRefinement-by-Denoising (RED)モジュールを設計する。
本手法は, RMSE, MAE, および相関係数において, 内部および外部両方の検証において, 従来の手法よりも優れていた。
提案手法は, 内外気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道内気道外気道内気道内気道内気道内気道内気道内気道内気道内気
関連論文リスト
- Cross-Domain Learning for Video Anomaly Detection with Limited Supervision [12.290352736331602]
ビデオ異常検出(VAD)は、監視ビデオにおけるセキュリティ脅威などの異常事象の識別を自動化する。
既存のドメイン間VADメソッドは教師なし学習に重点を置いており、結果として実世界の期待に届かないパフォーマンスをもたらす。
本稿では, 予測バイアスを推定し, 予測不確実性を用いて学習を適応的に最小化することにより, トレーニング中に外部データを組み込んだ, クロスドメイン学習(CDL)の枠組みを新たに導入する。
論文 参考訳(メタデータ) (2024-08-09T17:28:29Z) - Conformal Diffusion Models for Individual Treatment Effect Estimation and Inference [6.406853903837333]
個々の治療効果は、個々のレベルで最もきめ細かい治療効果を提供する。
本稿では,これらの複雑な課題に対処する共形拡散モデルに基づく新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-08-02T21:35:08Z) - Efficient Multi-View Fusion and Flexible Adaptation to View Missing in Cardiovascular System Signals [4.519437028632205]
深層学習は、心臓血管系(CVS)信号に関する自動多視点融合(MVF)を促進する。
MVFモデルアーキテクチャは、しばしば同じ時間ステップからCVS信号と一致するが、統一された表現に異なる視点を持つ。
本稿では,事前学習したMVFモデルに対して,様々なシナリオに柔軟に対応するためのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T08:58:59Z) - Benchmarking and Improving Bird's Eye View Perception Robustness in Autonomous Driving [55.93813178692077]
本稿では,BEVアルゴリズムのレジリエンスを評価するためのベンチマークスイートであるRoboBEVを紹介する。
検出,マップセグメンテーション,深さ推定,占有予測といったタスクにまたがる33の最先端のBEVベースの知覚モデルを評価する。
また, 事前学習や深度自由なBEVトランスフォーメーションなどの戦略が, アウト・オブ・ディストリビューションデータに対するロバスト性を高める上で有効であることを示す。
論文 参考訳(メタデータ) (2024-05-27T17:59:39Z) - Enhancing Fairness in Neural Networks Using FairVIC [0.0]
自動意思決定システム、特にディープラーニングモデルにおけるバイアスの緩和は、公平性を達成する上で重要な課題である。
FairVICは、トレーニング段階で固有のバイアスに対処することによって、ニューラルネットワークの公平性を高めるために設計された革新的なアプローチである。
我々は、モデルの精度を有害な程度に向上させることなく、テスト対象のすべての指標の公平性を大幅に改善する。
論文 参考訳(メタデータ) (2024-04-28T10:10:21Z) - VALOR-EVAL: Holistic Coverage and Faithfulness Evaluation of Large Vision-Language Models [57.43276586087863]
LVLM(Large Vision-Language Models)は幻覚に悩まされ、このモデルでは可聴音を発生させるが、実際には誤出力を発生させる。
既存のベンチマークはスコープに限られており、主にオブジェクト幻覚に焦点を当てている。
対象,属性,関係を多次元のベンチマークで表現し,連想バイアスに基づいて画像を選択する。
論文 参考訳(メタデータ) (2024-04-22T04:49:22Z) - Fairness-Aware Interpretable Modeling (FAIM) for Trustworthy Machine
Learning in Healthcare [6.608905791768002]
フェアネス・アウェア・インタプリタブル・モデリング(FAIM)を提案し,性能を損なうことなくモデルフェアネスを改善する。
FAIMは、ハイパフォーマンスモデルのセットから"フェアラー"モデルを識別するためのインタラクティブインターフェースを備えている。
FAIMモデルは, 良好な識別性能を示すだけでなく, 確立された公正度測定値によって測定されたバイアスを著しく軽減することを示した。
論文 参考訳(メタデータ) (2024-03-08T11:51:00Z) - VeCAF: Vision-language Collaborative Active Finetuning with Training Objective Awareness [56.87603097348203]
VeCAFはラベルと自然言語アノテーションを使用して、PVMの微調整のためのパラメトリックデータ選択を行う。
VeCAFは微調整の目的を取り入れて重要なデータポイントを選択し、PVMをより高速な収束に向けて効果的に導く。
ImageNetでは、VeCAFは最大3.3倍のトレーニングバッチを使用して、完全な微調整に比べて目標のパフォーマンスに到達する。
論文 参考訳(メタデータ) (2024-01-15T17:28:37Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。