論文の概要: Kernel Self-Attention in Deep Multiple Instance Learning
- arxiv url: http://arxiv.org/abs/2005.12991v2
- Date: Fri, 5 Mar 2021 12:36:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 05:10:38.915705
- Title: Kernel Self-Attention in Deep Multiple Instance Learning
- Title(参考訳): 深層学習におけるカーネル自己認識
- Authors: Dawid Rymarczyk and Adriana Borowa and Jacek Tabor and Bartosz
Zieli\'nski
- Abstract要約: 本稿では,インスタンス間の依存関係を考慮した自己注意型MILプーリング(SA-AbMILP)アグリゲーション操作を提案する。
我々は,MNIST,組織,微生物,網膜のデータベース上で,SA-AbMILPが他のモデルよりも優れた性能を示すことを示す実験を行った。
- 参考スコア(独自算出の注目度): 11.57630563212961
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Not all supervised learning problems are described by a pair of a fixed-size
input tensor and a label. In some cases, especially in medical image analysis,
a label corresponds to a bag of instances (e.g. image patches), and to classify
such bag, aggregation of information from all of the instances is needed. There
have been several attempts to create a model working with a bag of instances,
however, they are assuming that there are no dependencies within the bag and
the label is connected to at least one instance. In this work, we introduce
Self-Attention Attention-based MIL Pooling (SA-AbMILP) aggregation operation to
account for the dependencies between instances. We conduct several experiments
on MNIST, histological, microbiological, and retinal databases to show that
SA-AbMILP performs better than other models. Additionally, we investigate
kernel variations of Self-Attention and their influence on the results.
- Abstract(参考訳): 教師付き学習問題は、固定サイズの入力テンソルとラベルのペアによって記述されるわけではない。
場合によっては、特に医用画像解析において、ラベルはインスタンスの袋(例えば、画像パッチ)に対応し、バッグを分類するには、すべてのインスタンスからの情報を集約する必要がある。
インスタンスの袋を扱うモデルを作成する試みはいくつかあったが、バッグ内に依存関係がなく、ラベルが少なくとも1つのインスタンスに接続されていると仮定している。
本研究では,インスタンス間の依存関係を考慮した自己注意型MILプーリング(SA-AbMILP)アグリゲーション操作を提案する。
我々は,MNIST,組織,微生物,網膜のデータベース上で,SA-AbMILPが他のモデルよりも優れていることを示す実験を行った。
さらに,自己着脱のカーネル変動と結果への影響について検討した。
関連論文リスト
- Sm: enhanced localization in Multiple Instance Learning for medical imaging classification [11.727293641333713]
マルチ・インスタンス・ラーニング(MIL)は医療画像分類において、ラベル付けの労力を減らすために広く用いられている。
ローカル依存関係をモデル化するための,新しい,原則付き,フレキシブルなメカニズムを提案する。
我々のモジュールは、最先端のローカライゼーションにおいて、競争力や優越性を保ちながら、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-10-04T09:49:28Z) - A General Model for Aggregating Annotations Across Simple, Complex, and
Multi-Object Annotation Tasks [51.14185612418977]
ラベルの品質を改善するための戦略は、複数のアノテータに同じ項目にラベルを付け、ラベルを集約するように求めることである。
特定のタスクに対して様々なbespokeモデルが提案されているが、様々な複雑なタスクを一般化するアグリゲーションメソッドを導入するのはこれが初めてである。
本論では,3つの新たな研究課題について検討し,今後の課題を概説する。
論文 参考訳(メタデータ) (2023-12-20T21:28:35Z) - Disambiguated Attention Embedding for Multi-Instance Partial-Label
Learning [68.56193228008466]
多くの実世界のタスクでは、関連するオブジェクトは、候補ラベルセットに関連付けられたマルチインスタンスバッグとして表現することができる。
既存のMIPLアプローチは、各インスタンスに拡張候補ラベルセットを割り当て、インスタンスレベルのラベルからバッグレベルのラベルを集約することで、インスタンス空間のパラダイムに従っている。
本稿では,DEMIPLという直感的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-26T13:25:17Z) - Leveraging Instance Features for Label Aggregation in Programmatic Weak
Supervision [75.1860418333995]
Programmatic Weak Supervision (PWS) は、トレーニングラベルを効率的に合成するための広く普及したパラダイムとして登場した。
PWSのコアコンポーネントはラベルモデルであり、複数のノイズ管理ソースの出力をラベル関数として集約することで、真のラベルを推論する。
既存の統計ラベルモデルは一般的にLFの出力のみに依存し、基礎となる生成過程をモデル化する際のインスタンスの特徴を無視している。
論文 参考訳(メタデータ) (2022-10-06T07:28:53Z) - Model Agnostic Interpretability for Multiple Instance Learning [7.412445894287708]
MIL(Multiple Instance Learning)では、モデルはインスタンスのバッグを使用してトレーニングされる。
本研究では,MILモデルを解釈するための重要な要件を確立する。
そして、これらの要件を満たすいくつかのモデルに依存しないアプローチを開発します。
論文 参考訳(メタデータ) (2022-01-27T17:55:32Z) - Nested Multiple Instance Learning with Attention Mechanisms [2.6552823781152366]
多重インスタンス学習(MIL)は、未知のラベルを持つデータの複数のインスタンスをバッグに分類する弱い教師付き学習の一種である。
我々は,最外側のバッグのみをラベル付けし,インスタンスを潜在ラベルとして表現するNested MILを提案する。
提案モデルでは,画像領域における関連インスタンスの発見とともに,高精度な性能を実現する。
論文 参考訳(メタデータ) (2021-11-01T13:41:09Z) - Accounting for Dependencies in Deep Learning Based Multiple Instance
Learning for Whole Slide Imaging [8.712556146101953]
多重インスタンス学習(MIL)は、スライド画像全体(WSI)を分類するための鍵となるアルゴリズムである。
ヒストロジー WSI には数十億ピクセルのピクセルがあり、膨大な計算とアノテーションの課題を生み出す。
本稿では,インスタンスの擬似ラベルに基づくインスタンス単位の損失関数を提案する。
論文 参考訳(メタデータ) (2021-11-01T06:50:33Z) - Non-I.I.D. Multi-Instance Learning for Predicting Instance and Bag
Labels using Variational Auto-Encoder [1.52292571922932]
バッグラベルとインスタンスラベルの両方を予測するために,インスタンス間の依存関係を明示的にモデル化するマルチインスタンス変分自動エンコーダ (MIVAE) アルゴリズムを提案する。
複数のマルチインスタンスベンチマークとエンドツーエンドの医療画像データセットの実験結果から、MIVAEはラベルとバッグラベルの予測タスクにおいて最先端のアルゴリズムよりも優れた性能を示している。
論文 参考訳(メタデータ) (2021-05-04T03:50:33Z) - Unsupervised Feature Learning by Cross-Level Instance-Group
Discrimination [68.83098015578874]
我々は、インスタンスグループ化ではなく、クロスレベルな識別によって、インスタンス間の類似性を対照的な学習に統合する。
CLDは、教師なし学習を、自然データや現実世界のアプリケーションに効果的に近づける。
セルフスーパービジョン、セミスーパービジョン、トランスファーラーニングベンチマークに関する新たな最先端技術は、報告されたすべてのパフォーマンスでMoCo v2とSimCLRを上回っている。
論文 参考訳(メタデータ) (2020-08-09T21:13:13Z) - Memory-Augmented Relation Network for Few-Shot Learning [114.47866281436829]
本研究では,新しい距離学習手法であるメモリ拡張リレーショナルネットワーク(MRN)について検討する。
MRNでは、作業状況と視覚的に類似したサンプルを選択し、重み付け情報伝搬を行い、選択したサンプルから有用な情報を注意深く集約し、その表現を強化する。
我々は、MRNが祖先よりも大幅に向上し、他の数発の学習手法と比較して、競争力や性能が向上することを示した。
論文 参考訳(メタデータ) (2020-05-09T10:09:13Z) - Weakly-Supervised Action Localization with Expectation-Maximization
Multi-Instance Learning [82.41415008107502]
弱教師付きアクションローカライゼーションでは、ビデオレベルアクションラベルのみを与えられたビデオ内のアクションセグメントをローカライズするモデルをトレーニングする必要がある。
バッグ(ビデオ)には複数のインスタンス(アクションセグメント)が含まれている。
我々のEM-MILアプローチは、学習目標とMIL仮定の両方をより正確にモデル化することを示します。
論文 参考訳(メタデータ) (2020-03-31T23:36:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。