論文の概要: Balancing Bias and Variance for Active Weakly Supervised Learning
- arxiv url: http://arxiv.org/abs/2206.05682v1
- Date: Sun, 12 Jun 2022 07:15:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-15 10:38:09.349688
- Title: Balancing Bias and Variance for Active Weakly Supervised Learning
- Title(参考訳): アクティブ弱監視学習のためのバランスバイアスと変数
- Authors: Hitesh Sapkota, Qi Yu
- Abstract要約: 現代のマルチインスタンス学習(MIL)モデルは、バッグレベルでの競争性能を達成する。
しかし、多くの重要なアプリケーションに欠かせないインスタンスレベルの予測は不十分である。
本稿では,インスタンスレベルの予測を促進することを目的とした,新しいディープサブセットを提案する。
複数の実世界のデータセット上で実施された実験は、最先端のインスタンスレベルの予測をはっきりと示している。
- 参考スコア(独自算出の注目度): 9.145168943972067
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As a widely used weakly supervised learning scheme, modern multiple instance
learning (MIL) models achieve competitive performance at the bag level.
However, instance-level prediction, which is essential for many important
applications, remains largely unsatisfactory. We propose to conduct novel
active deep multiple instance learning that samples a small subset of
informative instances for annotation, aiming to significantly boost the
instance-level prediction. A variance regularized loss function is designed to
properly balance the bias and variance of instance-level predictions, aiming to
effectively accommodate the highly imbalanced instance distribution in MIL and
other fundamental challenges. Instead of directly minimizing the variance
regularized loss that is non-convex, we optimize a distributionally robust bag
level likelihood as its convex surrogate. The robust bag likelihood provides a
good approximation of the variance based MIL loss with a strong theoretical
guarantee. It also automatically balances bias and variance, making it
effective to identify the potentially positive instances to support active
sampling. The robust bag likelihood can be naturally integrated with a deep
architecture to support deep model training using mini-batches of
positive-negative bag pairs. Finally, a novel P-F sampling function is
developed that combines a probability vector and predicted instance scores,
obtained by optimizing the robust bag likelihood. By leveraging the key MIL
assumption, the sampling function can explore the most challenging bags and
effectively detect their positive instances for annotation, which significantly
improves the instance-level prediction. Experiments conducted over multiple
real-world datasets clearly demonstrate the state-of-the-art instance-level
prediction achieved by the proposed model.
- Abstract(参考訳): 弱教師付き学習方式として広く使われている現代マルチインスタンス学習(MIL)モデルは、バッグレベルでの競争性能を達成する。
しかし、多くの重要なアプリケーションに不可欠なインスタンスレベルの予測は、ほとんど満足できないままである。
そこで本研究では,インフォメーションインスタンスのごく一部をサンプルとして,インスタンスレベルの予測を著しく高めることを目的とした,新しいアクティブ深層複数インスタンス学習手法を提案する。
分散正規化損失関数は、インスタンスレベルの予測のバイアスと分散を適切にバランスさせ、ミルの高度不均衡なインスタンス分布とその他の根本的な課題を効果的に解決することを目的として設計されている。
非凸である分散正則化損失を直接最小化する代わりに、分布的に堅牢なバッグレベル確率を凸代理として最適化する。
頑丈な袋の確率は、強い理論的保証とともに分散に基づくMIL損失の良好な近似を与える。
また、バイアスと分散を自動的にバランスさせ、アクティブサンプリングをサポートする潜在的にポジティブなインスタンスを特定するのが効果的である。
ロバストなバッグ確率は、負の袋ペアのミニバッチを使用して深層モデルのトレーニングをサポートするために、ディープアーキテクチャと自然に統合することができる。
最後に,ロバストなバッグ確率を最適化し,確率ベクトルと予測インスタンススコアを組み合わせた新しいp-fサンプリング関数を開発した。
キーとなるMIL仮定を利用することで、サンプリング関数は最も困難なバッグを探索し、アノテーションに対する肯定的なインスタンスを効果的に検出し、インスタンスレベルの予測を大幅に改善する。
複数の実世界のデータセット上で実施された実験は、提案モデルによって達成された最先端のインスタンスレベルの予測をはっきりと示している。
関連論文リスト
- cDP-MIL: Robust Multiple Instance Learning via Cascaded Dirichlet Process [23.266122629592807]
マルチプル・インスタンス・ラーニング (MIL) は全スライス・ヒストパラメトリック・イメージ (WSI) 解析に広く応用されている。
MILの既存の集約戦略は、主にインスタンス間の一階距離に依存するが、各インスタンスの真の特徴分布を正確に近似することができない。
本稿では、複数のインスタンス学習のための新しいベイズ非パラメトリックフレームワークを提案し、WSIのインスタンス・ツー・バッグ特性を組み込むためにディリクレ・プロセスのカスケード(cDP)を採用する。
論文 参考訳(メタデータ) (2024-07-16T07:28:39Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Online progressive instance-balanced sampling for weakly supervised
object detection [0.0]
本稿では、ハードサンプリングとソフトサンプリングに基づくオンラインプログレッシブインスタンスバランスサンプリング(OPIS)アルゴリズムを提案する。
提案手法は,既存の多くの最先端結果に匹敵するベースラインを著しく改善することができる。
論文 参考訳(メタデータ) (2022-06-21T12:48:13Z) - Interventional Multi-Instance Learning with Deconfounded Instance-Level
Prediction [29.151629044965983]
本稿では,インスタンスレベルの非定型予測を実現するために,新しい介入型マルチインスタンス学習(IMIL)フレームワークを提案する。
従来の可能性に基づく戦略とは異なり、因果介入に基づく期待最大化(EM)アルゴリズムを設計する。
IMIL法は, 偽陽性を著しく低減し, 最先端のMIL法より優れる。
論文 参考訳(メタデータ) (2022-04-20T03:17:36Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Contextual Dropout: An Efficient Sample-Dependent Dropout Module [60.63525456640462]
ドロップアウトは、ディープニューラルネットワークのトレーニングプロセスを正規化するシンプルで効果的なモジュールとして実証されています。
単純でスケーラブルなサンプル依存型ドロップアウトモジュールとして,効率的な構造設計によるコンテキスト型ドロップアウトを提案する。
提案手法は,不確実性推定の精度と品質の両面において,ベースライン法よりも優れていた。
論文 参考訳(メタデータ) (2021-03-06T19:30:32Z) - Sparse Network Inversion for Key Instance Detection in Multiple Instance
Learning [24.66638752977373]
複数インスタンス学習(MIL)では、バッグレベルの正または負のラベルを与えられたインスタンスの袋の1つのラベルを予測する。
注目に基づくディープMILモデルは、バッグレベルの分類とキーインスタンス検出の両方において最近の進歩である。
KIDタスクにおける注意に基づく深層MILモデルの改善手法を提案する。
論文 参考訳(メタデータ) (2020-09-07T07:01:59Z) - Multi-Scale Positive Sample Refinement for Few-Shot Object Detection [61.60255654558682]
Few-shot Object Detection (FSOD) は、ディテクターがトレーニングインスタンスをほとんど持たない未確認のクラスに適応するのに役立つ。
FSODにおけるオブジェクトスケールを拡張化するためのMPSR(Multi-scale Positive Sample Refinement)アプローチを提案する。
MPSRは、オブジェクトピラミッドとして多スケールの正のサンプルを生成し、様々なスケールで予測を洗練させる。
論文 参考訳(メタデータ) (2020-07-18T09:48:29Z) - Learning a Unified Sample Weighting Network for Object Detection [113.98404690619982]
地域サンプリングや重み付けは、現代の地域ベースの物体検出器の成功に極めて重要である。
サンプル重み付けはデータ依存でタスク依存であるべきだと我々は主張する。
サンプルのタスク重みを予測するための統一的なサンプル重み付けネットワークを提案する。
論文 参考訳(メタデータ) (2020-06-11T16:19:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。