論文の概要: Certainty Pooling for Multiple Instance Learning
- arxiv url: http://arxiv.org/abs/2008.10548v1
- Date: Mon, 24 Aug 2020 16:38:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 12:07:23.476457
- Title: Certainty Pooling for Multiple Instance Learning
- Title(参考訳): 複数のインスタンス学習のための確実性プール
- Authors: Jacob Gildenblat, Ido Ben-Shaul, Zvi Lapp, and Eldad Klaiman
- Abstract要約: 我々は、モデル確実性をバッグ予測に組み込んだ、textbfCertainty Poolingと呼ばれる新しいプール演算子を提案する。
本手法は,バッグレベルとインスタンスレベルの予測において,特に小規模なトレーニングセットのみが利用できる場合において,他の手法よりも優れる。
- 参考スコア(独自算出の注目度): 0.6299766708197883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiple Instance Learning is a form of weakly supervised learning in which
the data is arranged in sets of instances called bags with one label assigned
per bag. The bag level class prediction is derived from the multiple instances
through application of a permutation invariant pooling operator on instance
predictions or embeddings. We present a novel pooling operator called
\textbf{Certainty Pooling} which incorporates the model certainty into bag
predictions resulting in a more robust and explainable model. We compare our
proposed method with other pooling operators in controlled experiments with low
evidence ratio bags based on MNIST, as well as on a real life histopathology
dataset - Camelyon16. Our method outperforms other methods in both bag level
and instance level prediction, especially when only small training sets are
available. We discuss the rationale behind our approach and the reasons for its
superiority for these types of datasets.
- Abstract(参考訳): マルチインスタンス学習(Multiple Instance Learning)は、データがバッグと呼ばれるインスタンスのセットに配置され、バッグごとに1つのラベルが割り当てられる弱い教師付き学習形式である。
bagレベルクラスの予測は、インスタンスの予測や埋め込みに置換不変プーリング演算子を適用することにより、複数のインスタンスから導かれる。
本稿では,モデル確実性をバッグ予測に組み込むことで,より堅牢で説明可能なモデルが得られる新しいプール演算子「textbf{Certainty Pooling」を提案する。
mnistに基づく低エビデンス比バッグを用いた制御実験と実際の病理組織学的データセットであるcamlyon16を用いて,提案法を他のプール操作者と比較した。
本手法は,バッグレベルとインスタンスレベルの予測において,特に小規模なトレーニングセットのみが利用できる場合において,他の手法よりも優れる。
このアプローチの背景にある理論的根拠と,このようなデータセットが優れている理由について論じる。
関連論文リスト
- Learning from Label Proportions and Covariate-shifted Instances [12.066922664696445]
ラベル比(LLP)から学ぶ場合、アグリゲートラベルはバッグ内のインスタンスラベルの平均である。
我々は,対象のバッグラベルとソースのインスタンスラベルを自然に組み込むハイブリッドLPの手法を開発した。
論文 参考訳(メタデータ) (2024-11-19T08:36:34Z) - A Fixed-Point Approach to Unified Prompt-Based Counting [51.20608895374113]
本研究の目的は,ボックス,ポイント,テキストなど,さまざまなプロンプト型で示されるオブジェクトの密度マップを生成することができる包括的プロンプトベースのカウントフレームワークを確立することである。
本モデルは,クラスに依存しない顕著なデータセットに優れ,データセット間の適応タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-15T12:05:44Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Rethinking Multiple Instance Learning for Whole Slide Image Classification: A Good Instance Classifier is All You Need [18.832471712088353]
MIL設定下では,インスタンスレベルの弱教師付きコントラスト学習アルゴリズムを初めて提案する。
また,プロトタイプ学習による正確な擬似ラベル生成手法を提案する。
論文 参考訳(メタデータ) (2023-07-05T12:44:52Z) - Learning from Aggregated Data: Curated Bags versus Random Bags [35.394402088653415]
我々は、個々のラベルではなく、集約されたデータラベルで機械学習モデルをトレーニングする可能性を探る。
キュレートしたバッグ設定では,性能の劣化を伴わずに勾配に基づく学習が可能であることを示す。
ランダムなバッグ設定では、バッグのサイズと達成可能なエラー率との間のトレードオフがある。
論文 参考訳(メタデータ) (2023-05-16T15:53:45Z) - Deep Active Learning with Contrastive Learning Under Realistic Data Pool
Assumptions [2.578242050187029]
アクティブラーニングは、モデルが望まれる精度を迅速に到達できるようにする、ラベルのないデータプールから最も情報性の高いデータを特定することを目的としている。
既存のアクティブラーニング手法の多くは、未ラベルのデータプールに対象タスクに関連するサンプルのみが存在する理想的な環境で評価されている。
我々は,不明瞭でタスク非関連なアウト・オブ・ディストリビューションと,イン・ディストリビューション・サンプルを含む,新しいアクティブ・ラーニング・ベンチマークを導入する。
論文 参考訳(メタデータ) (2023-03-25T10:46:10Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Fast learning from label proportions with small bags [0.0]
ラベルパーセンテージ(LLP)から学ぶ場合、インスタンスはバッグにグループ化され、トレーニングバッグの相対クラスパーセンテージが与えられたインスタンス分類器を学習する。
本研究では,全ての一貫したラベルの組み合わせを明示的に考慮し,より効率的なアルゴリズムを設計できる小袋の事例に焦点を当てる。
論文 参考訳(メタデータ) (2021-10-07T13:11:18Z) - An Empirical Comparison of Instance Attribution Methods for NLP [62.63504976810927]
本研究は,トレーニングサンプルの重要性に関して,異なるインスタンス属性が一致した度合いを評価する。
単純な検索メソッドは、グラデーションベースの方法によって識別されたものと異なるトレーニングインスタンスを生成する。
論文 参考訳(メタデータ) (2021-04-09T01:03:17Z) - Few-Shot Learning with Intra-Class Knowledge Transfer [100.87659529592223]
アンバランスなデータセットを用いた数発の分類タスクについて検討する。
近年の研究では、生成モデルを用いて数発の授業のトレーニングデータを増やすことで、この課題を解決することが提案されている。
本稿では,近隣クラスが類似した統計情報を共有するという直感で,近隣クラスからのクラス内知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-08-22T18:15:38Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。