論文の概要: Ranking Loss and Sequestering Learning for Reducing Image Search Bias in
Histopathology
- arxiv url: http://arxiv.org/abs/2304.08498v1
- Date: Sat, 15 Apr 2023 03:38:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 16:59:55.395078
- Title: Ranking Loss and Sequestering Learning for Reducing Image Search Bias in
Histopathology
- Title(参考訳): 病理組織における画像検索バイアス低減のためのランク付け損失とシーカリング学習
- Authors: Pooria Mazaheri, Azam Asilian Bidgoli, Shahryar Rahnamayan, H.R.
Tizhoosh
- Abstract要約: 本稿では,画像検索性能を改善するための2つの新しいアイデアを提案する。
まず、ランキング損失関数を用いて特徴抽出を検索のマッチング指向性に向けて誘導する。
第2に,特徴抽出の一般化を促進するために,選択学習の概念を導入する。
- 参考スコア(独自算出の注目度): 0.6595290783361959
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, deep learning has started to play an essential role in healthcare
applications, including image search in digital pathology. Despite the recent
progress in computer vision, significant issues remain for image searching in
histopathology archives. A well-known problem is AI bias and lack of
generalization. A more particular shortcoming of deep models is the ignorance
toward search functionality. The former affects every model, the latter only
search and matching. Due to the lack of ranking-based learning, researchers
must train models based on the classification error and then use the resultant
embedding for image search purposes. Moreover, deep models appear to be prone
to internal bias even if using a large image repository of various hospitals.
This paper proposes two novel ideas to improve image search performance. First,
we use a ranking loss function to guide feature extraction toward the
matching-oriented nature of the search. By forcing the model to learn the
ranking of matched outputs, the representation learning is customized toward
image search instead of learning a class label. Second, we introduce the
concept of sequestering learning to enhance the generalization of feature
extraction. By excluding the images of the input hospital from the matched
outputs, i.e., sequestering the input domain, the institutional bias is
reduced. The proposed ideas are implemented and validated through the largest
public dataset of whole slide images. The experiments demonstrate superior
results compare to the-state-of-art.
- Abstract(参考訳): 近年,デジタル病理学における画像検索などの医療応用において,深層学習が重要な役割を担っている。
近年のコンピュータビジョンの進歩にもかかわらず、画像検索には重要な問題がある。
有名な問題はAIバイアスと一般化の欠如である。
深いモデルのより特筆すべき欠点は、検索機能に対する無知である。
前者は全てのモデルに影響を与え、後者は検索とマッチングのみである。
ランキングベースの学習が欠如しているため、研究者は分類エラーに基づいてモデルを訓練し、画像検索のために結果の埋め込みを使用する必要がある。
さらに, 深部モデルでは, 各種病院の大規模画像リポジトリを用いても, 内部バイアスが生じる傾向がみられた。
本稿では,画像検索性能を改善するための2つの新しいアイデアを提案する。
まず,検索のマッチング指向性に対して特徴抽出を導くために,ランキング損失関数を用いる。
モデルにマッチした出力のランキングを学習させることにより、表現学習はクラスラベルを学習するのではなく、画像検索にカスタマイズされる。
第2に,特徴抽出の一般化を促進するために,選択学習の概念を導入する。
入力された出力から入力された病院の画像、すなわち入力ドメインを隔離することにより、制度バイアスを低減させる。
提案したアイデアは、スライド画像全体の最大の公開データセットを通じて実装され、検証される。
この実験は最先端技術と比較して優れた結果を示している。
関連論文リスト
- Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Invisible Relevance Bias: Text-Image Retrieval Models Prefer AI-Generated Images [67.18010640829682]
我々は,AI生成画像がテキスト画像検索モデルに目に見えない関連性バイアスをもたらすことを示す。
検索モデルのトレーニングデータにAI生成画像を含めると、目に見えない関連性バイアスが増す。
本研究では,目に見えない関連バイアスを軽減するための効果的なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T16:22:58Z) - Are Deep Learning Classification Results Obtained on CT Scans Fair and
Interpretable? [0.0]
ほとんどの肺結節分類論文は、ディープラーニングを用いてランダムにシャッフルし、それをトレーニング、検証、テストセットに分割する。
対照的に、厳密な患者レベルの分離で訓練されたディープニューラルネットワークは、新しい患者画像が検査された場合でも、正確性を維持する。
厳密な患者レベルの分離で訓練されたディープニューラルネットワークの活性化のヒートマップの可視化は、関連する結節に対する集中度が高いことを示している。
論文 参考訳(メタデータ) (2023-09-22T05:57:25Z) - Spuriosity Rankings: Sorting Data to Measure and Mitigate Biases [62.54519787811138]
本稿では,突発的手がかりに依存したモデルバイアスを簡易かつ効果的に測定・緩和する手法を提案する。
我々は,解釈可能なネットワークの深部神経的特徴をベースとして,それらのクラス内の画像のランク付けを行う。
以上の結果から,素早い特徴依存によるモデルバイアスは,モデルがどのようにトレーニングされたかよりも,モデルがトレーニングされていることの影響がはるかに大きいことが示唆された。
論文 参考訳(メタデータ) (2022-12-05T23:15:43Z) - A domain adaptive deep learning solution for scanpath prediction of
paintings [66.46953851227454]
本稿では,ある絵画の視覚的体験における視聴者の眼球運動分析に焦点を当てた。
我々は、人間の視覚的注意を予測するための新しいアプローチを導入し、人間の認知機能に影響を及ぼす。
提案した新しいアーキテクチャは、画像を取り込んでスキャンパスを返す。
論文 参考訳(メタデータ) (2022-09-22T22:27:08Z) - Indicative Image Retrieval: Turning Blackbox Learning into Grey [0.0]
本稿では,深層学習における関連・マッチングモデリングの重要性を再考する。
その結果,表現学習を省略し,一致した証拠を直接モデル化することが可能であることが示唆された。
オックスフォード5kで97.77%(パリ6kで97.81%)の新記録を樹立した。
論文 参考訳(メタデータ) (2022-01-28T02:21:09Z) - On the Unreasonable Effectiveness of Centroids in Image Retrieval [0.1933681537640272]
本稿では,トレーニングと検索の両方において,平均セントロイド表現を用いることを提案する。
各クラスは単一の埋め込み – クラスセントロイド – で表現されるため、検索時間とストレージ要件の両方が大幅に削減される。
論文 参考訳(メタデータ) (2021-04-28T08:57:57Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Distractor-Aware Neuron Intrinsic Learning for Generic 2D Medical Image
Classifications [30.62607811479386]
我々は、畳み込みニューラルネットワーク(CNN)が障害的干渉に弱いことを観察する。
本稿では,ニューロン固有の学習手法を提案することで,CNN特徴空間からの逸脱を探索する。
提案手法は最先端のアプローチに対して良好に機能する。
論文 参考訳(メタデータ) (2020-07-20T09:59:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。