論文の概要: Multiple Instance Verification
- arxiv url: http://arxiv.org/abs/2407.06544v1
- Date: Tue, 9 Jul 2024 04:51:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 19:15:32.997177
- Title: Multiple Instance Verification
- Title(参考訳): 複数インスタンス検証
- Authors: Xin Xu, Eibe Frank, Geoffrey Holmes,
- Abstract要約: 本稿では,注目に基づく複数インスタンス学習手法と標準検証手法の素直な適応が,この設定には適さないことを示す。
CAPフレームワークでは、ターゲットバッグ内の非常に類似したインスタンスを区別する問題に対処する2つの新しい注意機能を提案する。
- 参考スコア(独自算出の注目度): 11.027466339522777
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We explore multiple-instance verification, a problem setting where a query instance is verified against a bag of target instances with heterogeneous, unknown relevancy. We show that naive adaptations of attention-based multiple instance learning (MIL) methods and standard verification methods like Siamese neural networks are unsuitable for this setting: directly combining state-of-the-art (SOTA) MIL methods and Siamese networks is shown to be no better, and sometimes significantly worse, than a simple baseline model. Postulating that this may be caused by the failure of the representation of the target bag to incorporate the query instance, we introduce a new pooling approach named ``cross-attention pooling'' (CAP). Under the CAP framework, we propose two novel attention functions to address the challenge of distinguishing between highly similar instances in a target bag. Through empirical studies on three different verification tasks, we demonstrate that CAP outperforms adaptations of SOTA MIL methods and the baseline by substantial margins, in terms of both classification accuracy and quality of the explanations provided for the classifications. Ablation studies confirm the superior ability of the new attention functions to identify key instances.
- Abstract(参考訳): 我々は、クエリインスタンスが不均一で未知の関連性を持つターゲットインスタンスのバッグに対して検証される問題設定である多重インスタンス検証について検討する。
注意に基づく多重インスタンス学習(MIL)手法と、シームズニューラルネットワークのような標準的な検証手法の素直な適応は、この設定には適さない: 最先端のMIL法とシームズネットワークを直接組み合わせることは、単純なベースラインモデルよりも良く、時にさらに悪い。
これは、クエリーインスタンスを組み込むためにターゲットバッグの表現が失敗したことで引き起こされる可能性があると仮定し、 '`cross-attention pooling' (CAP) と呼ばれる新しいプール手法を導入する。
CAPフレームワークでは、ターゲットバッグ内の非常に類似したインスタンスを区別する問題に対処する2つの新しい注意機能を提案する。
3つの異なる検証課題に関する実証研究を通じて、CAPは分類のための説明の精度と品質の両面で、SOTA MIL法とベースラインの適応を実質的なマージンで上回ることを示した。
アブレーション研究は、キーインスタンスを識別する新しい注意関数の優れた能力を確認する。
関連論文リスト
- Attention Is Not What You Need: Revisiting Multi-Instance Learning for Whole Slide Image Classification [51.95824566163554]
我々は,標準MIL仮定と変分推論を相乗化することにより,スプリアス相関ではなく腫瘍形態学に焦点を合わせることができると主張している。
また, ハードインスタンスの識別に優れた分類境界を実現し, バッグとラベルの相互関係を緩和する。
論文 参考訳(メタデータ) (2024-08-18T12:15:22Z) - cDP-MIL: Robust Multiple Instance Learning via Cascaded Dirichlet Process [23.266122629592807]
マルチプル・インスタンス・ラーニング (MIL) は全スライス・ヒストパラメトリック・イメージ (WSI) 解析に広く応用されている。
MILの既存の集約戦略は、主にインスタンス間の一階距離に依存するが、各インスタンスの真の特徴分布を正確に近似することができない。
本稿では、複数のインスタンス学習のための新しいベイズ非パラメトリックフレームワークを提案し、WSIのインスタンス・ツー・バッグ特性を組み込むためにディリクレ・プロセスのカスケード(cDP)を採用する。
論文 参考訳(メタデータ) (2024-07-16T07:28:39Z) - Attention-Challenging Multiple Instance Learning for Whole Slide Image Classification [12.424186320807888]
ACMIL(Attention-Challenging MIL)を提案する。
ACMILは、注意値集中のための別個の分析に基づく2つの手法を組み合わせる。
本稿では,ACMILが注目値の集中を抑え,過度に適合する課題を克服する上で有効であることを示す。
論文 参考訳(メタデータ) (2023-11-13T07:34:53Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - Dual Adaptive Representation Alignment for Cross-domain Few-shot
Learning [58.837146720228226]
ベース知識から学習することで、限られたサポートサンプルを持つ新規なクエリを認識することを目的としている。
この設定の最近の進歩は、ベース知識と新しいクエリサンプルが同じドメインに分散されていることを前提としている。
本稿では,ターゲットドメインで利用可能なサンプルが極めて少ないドメイン間数ショット学習の問題に対処することを提案する。
論文 参考訳(メタデータ) (2023-06-18T09:52:16Z) - Learning Classifiers of Prototypes and Reciprocal Points for Universal
Domain Adaptation [79.62038105814658]
Universal Domainは、ドメインシフトとカテゴリシフトという2つのシフトを処理して、データセット間で知識を転送することを目的としている。
主な課題は、既知のクラス知識の分布をソースからターゲットに適応させながら、未知のターゲットサンプルを正しく識別することである。
既存のほとんどの手法は、まずターゲットが適応した既知の知識を訓練し、次に未知のターゲットサンプルを識別するために単一のしきい値に依存することでこの問題に対処する。
論文 参考訳(メタデータ) (2022-12-16T09:01:57Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - Attention Awareness Multiple Instance Neural Network [4.061135251278187]
本稿では,マルチインスタンスニューラルネットワークフレームワークを提案する。
インスタンスレベルの分類器と、空間的注意に基づくトレーニング可能なMILプーリング演算子と、バッグレベルの分類層で構成される。
一連のパターン認識タスクに対する実証実験により、我々のフレームワークは最先端のMILメソッドよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-27T03:29:17Z) - Few-shot Forgery Detection via Guided Adversarial Interpolation [56.59499187594308]
既存の偽造検出手法は、見知らぬ新しい偽造手法に適用した場合、大幅な性能低下に悩まされる。
本稿では,数発の偽造検出問題を克服するために,GAI(Guid Adversarial Interpolation)を提案する。
我々の手法は、多数派と少数派の偽造アプローチの選択に対して堅牢であることが検証されている。
論文 参考訳(メタデータ) (2022-04-12T16:05:10Z) - Target Consistency for Domain Adaptation: when Robustness meets
Transferability [8.189696720657247]
学習不変表現(Learning Invariant Representations)は、ソースとUnsupervised Domain Adaptationのターゲットドメインの調整に成功している。
ソースドメインに保持されているにもかかわらず、クラスタの仮定がターゲットドメインで違反していることを示す。
我々の新しいアプローチは、画像分類とセグメンテーションベンチマークの両方において、大幅な改善をもたらす。
論文 参考訳(メタデータ) (2020-06-25T09:13:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。