論文の概要: Identifying Melanoma Images using EfficientNet Ensemble: Winning
Solution to the SIIM-ISIC Melanoma Classification Challenge
- arxiv url: http://arxiv.org/abs/2010.05351v1
- Date: Sun, 11 Oct 2020 21:38:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 13:51:38.206916
- Title: Identifying Melanoma Images using EfficientNet Ensemble: Winning
Solution to the SIIM-ISIC Melanoma Classification Challenge
- Title(参考訳): efficientnetアンサンブルを用いたメラノーマ画像の同定:sim-isic melanoma classification challengeの勝利解
- Authors: Qishen Ha, Bo Liu, Fuxu Liu
- Abstract要約: 我々はSIIM-ISICメラノーマ分類チャレンジに勝利のソリューションを提示する。
これは、異なるバックボーンと入力サイズを持つ畳み込みニューラルネットワーク(CNN)モデルのアンサンブルである。
優勝した応募者は、クロス・検証で0.9600 AUC、プライベート・リーダーボードで0.9490 AUCを獲得した。
- 参考スコア(独自算出の注目度): 4.835252864076995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present our winning solution to the SIIM-ISIC Melanoma Classification
Challenge. It is an ensemble of convolutions neural network (CNN) models with
different backbones and input sizes, most of which are image-only models while
a few of them used image-level and patient-level metadata. The keys to our
winning are: (1) stable validation scheme (2) good choice of model target (3)
carefully tuned pipeline and (4) ensembling with very diverse models. The
winning submission scored 0.9600 AUC on cross validation and 0.9490 AUC on
private leaderboard.
- Abstract(参考訳): 我々はSIIM-ISICメラノーマ分類チャレンジに勝利のソリューションを提示する。
様々なバックボーンと入力サイズを持つ畳み込みニューラルネットワーク(cnn)モデルのアンサンブルであり、そのほとんどは画像のみのモデルであり、一部は画像レベルと患者レベルのメタデータを使用している。
勝利の鍵は、(1)安定な検証スキーム(2)モデルターゲットの選択が良いこと(3)慎重に調整されたパイプライン、(4)非常に多様なモデルで組み立てることである。
受賞者は、クロス・検証で0.9600 AUC、プライベート・リーダーボードで0.9490 AUCを獲得した。
関連論文リスト
- Centroid-centered Modeling for Efficient Vision Transformer Pre-training [109.18486172045701]
Masked Image Modeling (MIM)は、視覚変換器(ViT)を用いた新しい自己教師型ビジョン事前学習パラダイムである。
提案手法である textbfCCViT は k-means クラスタリングを利用して画像モデリングのためのセントロイドを得る。
実験の結果、300エポックしか持たないViT-BモデルはImageNet-1K分類で84.3%、ADE20Kセマンティックセグメンテーションで51.6%の精度を達成した。
論文 参考訳(メタデータ) (2023-03-08T15:34:57Z) - Decoupled Mixup for Generalized Visual Recognition [71.13734761715472]
視覚認識のためのCNNモデルを学習するための新しい「デカップリング・ミクスアップ」手法を提案する。
本手法は,各画像を識別領域と雑音発生領域に分離し,これらの領域を均一に組み合わせてCNNモデルを訓練する。
実験結果から,未知のコンテキストからなるデータに対する本手法の高一般化性能を示す。
論文 参考訳(メタデータ) (2022-10-26T15:21:39Z) - Early Diagnosis of Retinal Blood Vessel Damage via Deep Learning-Powered
Collective Intelligence Models [0.3670422696827525]
Swarmアルゴリズムのパワーは、タスクに最適なモデルを提供するために、畳み込み層、プーリング層、正規化層の様々な組み合わせを探すために使用される。
最高のTDCNモデルは90.3%、AUC ROCは0.956、Cohenスコアは0.967である。
論文 参考訳(メタデータ) (2022-10-17T21:38:38Z) - Detecting Mitoses with a Convolutional Neural Network for MIDOG 2022
Challenge [4.593314647169437]
本研究は,1つのバニラ畳み込みニューラルネットワーク(CNN)を用いた有糸分裂検出法を提案する。
提案手法は,画像が与えられた場合,まず,ミトースを含むパッチを抽出するスライディングウインドウ手法を用いてCNNを適用し,抽出したパッチのクラスアクティベーションマップを算出し,ミトーシスの正確な位置を求める。
モデルの一般化性を高めるため、一連のデータ拡張手法、ノイズラベル付き画像に対処する損失、アクティブな学習戦略を用いてCNNを訓練する。
論文 参考訳(メタデータ) (2022-08-26T04:59:43Z) - ViTAEv2: Vision Transformer Advanced by Exploring Inductive Bias for
Image Recognition and Beyond [76.35955924137986]
我々は、内在性IBを畳み込み、すなわちViTAEから探索するビジョントランスフォーマーを提案する。
ViTAEはいくつかの空間ピラミッド縮小モジュールを備えており、入力イメージをリッチなマルチスケールコンテキストでトークンに埋め込む。
我々は、ImageNet検証セット上で88.5%のTop-1分類精度と、ImageNet実検証セット上で最高の91.2%のTop-1分類精度を得る。
論文 参考訳(メタデータ) (2022-02-21T10:40:05Z) - A Battle of Network Structures: An Empirical Study of CNN, Transformer,
and MLP [121.35904748477421]
畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンのための支配的なディープニューラルネットワーク(DNN)アーキテクチャである。
トランスフォーマーとマルチ層パーセプトロン(MLP)ベースのモデル(Vision TransformerやVision-Mixer)が新しいトレンドを導い始めた。
本稿では,これらのDNN構造について実証的研究を行い,それぞれの長所と短所を理解しようとする。
論文 参考訳(メタデータ) (2021-08-30T06:09:02Z) - Scopeformer: n-CNN-ViT Hybrid Model for Intracranial Hemorrhage
Classification [0.0]
本稿では、視覚変換器(ViT)モデルを改善するために、畳み込みニューラルネットワーク(CNN)のアンサンブルからなる特徴生成器を提案する。
複数のXception CNNを用いて抽出した特徴マップを徐々に積み重ねることで、VTモデルのための特徴量豊富な入力を開発することができることを示す。
論文 参考訳(メタデータ) (2021-07-07T20:20:24Z) - A Hybrid Model for Combining Neural Image Caption and k-Nearest Neighbor
Approach for Image Captioning [2.9822184411723645]
テキストベース要約を生成するために2つの一般的な画像キャプション手法を統合するハイブリッドモデルを提案する。
2つの画像キャプションモデルは、Neural Image Caption (NIC) と k-nearest neighbor アプローチである。
提案したハイブリッドモデルでは, BLEU-4スコアの18.20を達成でき, 提案手法の有効性を証明できる。
論文 参考訳(メタデータ) (2021-05-09T03:49:14Z) - Multiscale Deep Equilibrium Models [162.15362280927476]
マルチスケールディープ均衡モデル(MDEQ)を新たに提案する。
MDEQは、複数の特徴分解の平衡点を直接解き、同時に伝播する。
本稿では,Cityscapesデータセットの高解像度画像に対するイメージネット分類とセマンティックセグメンテーションの2つの大規模ビジョンタスクにおけるこのアプローチの有効性について述べる。
論文 参考訳(メタデータ) (2020-06-15T18:07:44Z) - AvgOut: A Simple Output-Probability Measure to Eliminate Dull Responses [97.50616524350123]
機能エンジニアリングなしで、どの発話やトークンが退屈であるかを動的に認識する対話モデルを構築します。
最初のモデルMinAvgOutは、各バッチの出力分布を通して、ダイバーシティスコアを直接最大化する。
第2のモデルであるラベルファインチューニング(LFT)は、多様性スコアによって連続的にスケールされたラベルをソースシーケンスにプリペイドし、多様性レベルを制御する。
3つ目のモデルであるRLは強化学習を採用し、多様性スコアを報奨信号として扱う。
論文 参考訳(メタデータ) (2020-01-15T18:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。