論文の概要: Multi-task Ensembles with Crowdsourced Features Improve Skin Lesion
Diagnosis
- arxiv url: http://arxiv.org/abs/2004.14745v2
- Date: Mon, 6 Jul 2020 18:12:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 22:51:07.385508
- Title: Multi-task Ensembles with Crowdsourced Features Improve Skin Lesion
Diagnosis
- Title(参考訳): クラウドソーシング機能を備えたマルチタスクアンサンブルによる皮膚病変診断の改善
- Authors: Ralf Raumanns, Elif K Contar, Gerard Schouten, Veronika Cheplygina
- Abstract要約: 本稿では,より直感的に提供される画像の視覚的特徴について,聴衆に問うことを提案する。
提案手法をベースラインモデルとISIC 2017チャレンジデータセットの2000種類の皮膚病変と比較した。
個別のクラウドソース機能を持つマルチタスクモデルでは,モデルに限定的な効果が得られたが,アンサンブルに組み合わされた場合,一般化が向上することを示す。
- 参考スコア(独自算出の注目度): 0.22940141855172028
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning has a recognised need for large amounts of annotated data.
Due to the high cost of expert annotations, crowdsourcing, where non-experts
are asked to label or outline images, has been proposed as an alternative.
Although many promising results are reported, the quality of diagnostic
crowdsourced labels is still unclear. We propose to address this by instead
asking the crowd about visual features of the images, which can be provided
more intuitively, and by using these features in a multi-task learning
framework through ensemble strategies. We compare our proposed approach to a
baseline model with a set of 2000 skin lesions from the ISIC 2017 challenge
dataset. The baseline model only predicts a binary label from the skin lesion
image, while our multi-task model also predicts one of the following features:
asymmetry of the lesion, border irregularity and color. We show that multi-task
models with individual crowdsourced features have limited effect on the model,
but when combined in an ensembles, leads to improved generalisation. The area
under the receiver operating characteristic curve is 0.794 for the baseline
model and 0.811 and 0.808 for multi-task ensembles respectively. Finally, we
discuss the findings, identify some limitations and recommend directions for
further research. The code of the models is available at
https://github.com/raumannsr/hints_crowd.
- Abstract(参考訳): 機械学習は大量の注釈付きデータの必要性を認識している。
専門家のアノテーションのコストが高いため、非専門家に画像のラベル付けやアウトラインを依頼するクラウドソーシングが代替案として提案されている。
多くの有望な結果が報告されているが、診断クラウドソースラベルの品質はまだ不明である。
我々は,より直感的に提供可能な画像の視覚的特徴を群衆に尋ねる代わりに,これらの特徴をアンサンブル戦略を通じてマルチタスク学習フレームワークで利用する手法を提案する。
提案手法をベースラインモデルとISIC 2017チャレンジデータセットの2000種類の皮膚病変と比較した。
ベースラインモデルは皮膚病変画像からのバイナリラベルのみを予測し,マルチタスクモデルは病変の非対称性,境界不規則性,色といった特徴の1つを予測する。
個々のクラウドソース機能を備えたマルチタスクモデルでは,モデルへの影響は限られているが,アンサンブルで組み合わせると一般化が改善される。
受信機動作特性曲線の下の領域はベースラインモデルで0.794、マルチタスクアンサンブルで0.811、0.808である。
最後に,これらの知見を議論し,いくつかの限界を特定し,さらなる研究のための指示を推奨する。
モデルのコードはhttps://github.com/raumannsr/hints_crowdで入手できる。
関連論文リスト
- Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - Opinion-Unaware Blind Image Quality Assessment using Multi-Scale Deep Feature Statistics [54.08757792080732]
我々は,事前学習された視覚モデルからの深い特徴を統計的解析モデルと統合して,意見認識のないBIQA(OU-BIQA)を実現することを提案する。
提案モデルは,最先端のBIQAモデルと比較して,人間の視覚的知覚との整合性に優れる。
論文 参考訳(メタデータ) (2024-05-29T06:09:34Z) - Multi-rater Prompting for Ambiguous Medical Image Segmentation [12.452584289825849]
医用画像が複数の専門家(レーダ)によって独立して注釈付けされる場合、マルチラターアノテーションは一般的に発生する。
本稿では,これら2つの課題を完全に解決するためのマルチラッタープロンプトベースのアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-11T09:13:50Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Self-Supervised Multi-Modality Learning for Multi-Label Skin Lesion
Classification [15.757141597485374]
マルチモーダル皮膚病変分類のための自己教師付き学習アルゴリズムを提案する。
本アルゴリズムは,2対の皮膚内視鏡像と臨床像との類似性を最大化することにより,マルチモーダリティ学習を実現する。
以上の結果から,我々のアルゴリズムは最先端のSSLよりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-10-28T04:16:08Z) - MUSTANG: Multi-Stain Self-Attention Graph Multiple Instance Learning
Pipeline for Histopathology Whole Slide Images [1.127806343149511]
Whole Slide Images (WSIs)は、ギガピクセルサイズとアーティファクトの存在により、コンピュータビジョンの課題を提示している。
実世界の臨床データセットは、患者レベルにラベルがある異種WSIのセットとして提供され、アノテーションが不足している。
本稿では,エンドツーエンドのマルチスタンプ・セルフアテンション・グラフ(MUSTANG)マルチインスタンス学習パイプラインを提案する。
論文 参考訳(メタデータ) (2023-09-19T14:30:14Z) - Zero-shot Model Diagnosis [80.36063332820568]
ディープラーニングモデルを評価するための一般的なアプローチは、興味のある属性を持つラベル付きテストセットを構築し、そのパフォーマンスを評価することである。
本稿では,ゼロショットモデル診断(ZOOM)がテストセットやラベル付けを必要とせずに可能であることを論じる。
論文 参考訳(メタデータ) (2023-03-27T17:59:33Z) - Improving Deep Facial Phenotyping for Ultra-rare Disorder Verification
Using Model Ensembles [52.77024349608834]
我々は、DCNNを最先端の顔認識手法であるiResNetとArcFaceに置き換える影響を分析する。
提案するアンサンブルモデルにより,目視と目視の両障害に対する最先端のパフォーマンスが達成される。
論文 参考訳(メタデータ) (2022-11-12T23:28:54Z) - Understanding Gender and Racial Disparities in Image Recognition Models [0.0]
クロスエントロピーを用いたマルチラベルソフトマックスの損失を,多ラベル分類問題における二進的クロスエントロピーの代わりに損失関数として検討する。
MR2データセットを用いて、モデル結果の公平性を評価し、モデルのアクティベーションを見て誤りを解釈し、可能な修正を提案する。
論文 参考訳(メタデータ) (2021-07-20T01:05:31Z) - Dependent Multi-Task Learning with Causal Intervention for Image
Captioning [10.6405791176668]
本稿では、因果的介入(DMTCI)を伴う依存型マルチタスク学習フレームワークを提案する。
まず、中間タスク、カテゴリの袋生成、最終タスクの前に、画像キャプションを伴います。
次に、pearlのdo-calculusをモデルに適用し、視覚的特徴と共同設立者のつながりを取り除きます。
最後に,エンド・ツー・エンドのトレーニングを可能にし,タスク間エラーの蓄積を低減するために,マルチエージェント強化学習戦略を用いる。
論文 参考訳(メタデータ) (2021-05-18T14:57:33Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。