論文の概要: Advancing Melanoma Diagnosis with Self-Supervised Neural Networks: Evaluating the Effectiveness of Different Techniques
- arxiv url: http://arxiv.org/abs/2407.14628v1
- Date: Fri, 19 Jul 2024 18:57:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 21:43:34.163698
- Title: Advancing Melanoma Diagnosis with Self-Supervised Neural Networks: Evaluating the Effectiveness of Different Techniques
- Title(参考訳): 自己スーパービジョンニューラルネットワークを用いたメラノーマ診断の適応 : 異なる手法の有効性の評価
- Authors: Srivishnu Vusirikala, Suraj Rajendran,
- Abstract要約: メラノーマパッチを分類するために訓練された深層学習モデルの精度を向上させるための自己監督の可能性を検討する。
予備的な結果は、自己超越法がモデルの精度に肯定的な影響を与えることを示唆している。
観測可能な改善にもかかわらず、自己監督モデルにはさらなる拡張の可能性がかなりあると結論付けている。
- 参考スコア(独自算出の注目度): 0.9208007322096533
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate the potential of self-supervision in improving the accuracy of deep learning models trained to classify melanoma patches. Various self-supervision techniques such as rotation prediction, missing patch prediction, and corruption removal were implemented and assessed for their impact on the convolutional neural network's performance. Preliminary results suggest a positive influence of self-supervision methods on the model's accuracy. The study notably demonstrates the efficacy of the corruption removal method in enhancing model performance. Despite observable improvements, we conclude that the self-supervised models have considerable potential for further enhancement, achievable through training over more epochs or expanding the dataset. We suggest exploring other self-supervision methods like Bootstrap Your Own Latent (BYOL) and contrastive learning in future research, emphasizing the cost-benefit trade-off due to their resource-intensive nature. The findings underline the promise of self-supervision in augmenting melanoma detection capabilities of deep learning models.
- Abstract(参考訳): メラノーマパッチを分類するために訓練された深層学習モデルの精度を向上させるための自己監督の可能性を検討する。
回転予測、パッチ予測の欠如、汚職除去といった様々な自己超越的手法を実装し、畳み込みニューラルネットワークの性能への影響を評価した。
予備的な結果は、自己超越法がモデルの精度に肯定的な影響を与えることを示唆している。
本研究は, モデル性能向上における汚損除去法の有効性を顕著に示すものである。
観測可能な改善にもかかわらず、自己教師型モデルにはさらなる拡張の可能性があり、よりエポックなトレーニングやデータセットの拡張を通じて達成可能であると結論付けている。
我々は、Bootstrap Your Own Latent(BYOL)のような他のセルフスーパービジョン手法や、今後の研究における対照的な学習を探求し、リソース集約性によるコスト対効果のトレードオフを強調することを提案する。
この結果は,深層学習モデルのメラノーマ検出能力を増強する上での自己監督の約束を裏付けるものである。
関連論文リスト
- Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Mitigating annotation shift in cancer classification using single image generative models [1.1864334278373239]
本研究は乳房マンモグラフィー領域における癌分類におけるアノテーションシフトをシミュレートし,解析し,緩和する。
本研究では, 影響のあるクラスに対して, 単一画像生成モデルに基づくトレーニングデータ拡張手法を提案する。
本研究は、深層学習乳癌分類におけるアノテーションシフトに関する重要な知見を提供し、ドメインシフトの課題を克服するための単一画像生成モデルの可能性を探る。
論文 参考訳(メタデータ) (2024-05-30T07:02:50Z) - Understanding Calibration of Deep Neural Networks for Medical Image
Classification [3.461503547789351]
本研究では,異なるトレーニング体制下でのモデル性能とキャリブレーションについて検討する。
本研究は,完全教師付きトレーニングと,移動学習を伴わない回転型自己教師方式について考察する。
本研究では,重み分布や学習表現の類似性などの要因が,モデルで観測されるキャリブレーション傾向と相関していることを明らかにする。
論文 参考訳(メタデータ) (2023-09-22T18:36:07Z) - Study of Distractors in Neural Models of Code [4.043200001974071]
ニューラルネットワークの予測に寄与する重要な特徴を見つけることは、説明可能なAIの研究の活発な領域である。
本研究では,その予測に対するモデルの信頼度に影響を与えることによって,予測に疑問を呈する特徴について考察する。
さまざまなタスク、モデル、コードのデータセットにわたる実験により、トークンの削除が予測におけるモデルの信頼性に大きな影響を与えることが判明した。
論文 参考訳(メタデータ) (2023-03-03T06:54:01Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - Performance or Trust? Why Not Both. Deep AUC Maximization with
Self-Supervised Learning for COVID-19 Chest X-ray Classifications [72.52228843498193]
ディープラーニングモデルのトレーニングでは、パフォーマンスと信頼の間に妥協をしなければなりません。
本研究は、新型コロナウイルス患者のコンピュータ支援スクリーニングのための自己教師型学習と新しい代理損失を統合したものである。
論文 参考訳(メタデータ) (2021-12-14T21:16:52Z) - On visual self-supervision and its effect on model robustness [9.313899406300644]
自己監督はモデルロバスト性を改善することができるが、悪魔が細部にあることが判明した。
自己監督型プレトレーニングは, 対人訓練の改善に効果があるが, 自己監督型プレトレーニングを対人訓練に組み込んだ場合, モデル堅牢性や精度には何の利益も与えない。
論文 参考訳(メタデータ) (2021-12-08T16:22:02Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z) - How Well Do Self-Supervised Models Transfer? [92.16372657233394]
我々は、40の下流タスクにおいて、トップ13の自己教師型モデルの転送性能を評価する。
ImageNet Top-1の精度は、マルチショット認識への転送と非常に相関している。
全体としては、単一の自己監督的手法が支配的ではなく、普遍的な事前訓練がまだ未解決であることを示唆している。
論文 参考訳(メタデータ) (2020-11-26T16:38:39Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。