論文の概要: Weakly Semi-supervised Tool Detection in Minimally Invasive Surgery
Videos
- arxiv url: http://arxiv.org/abs/2401.02791v1
- Date: Fri, 5 Jan 2024 13:05:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-08 15:04:58.475921
- Title: Weakly Semi-supervised Tool Detection in Minimally Invasive Surgery
Videos
- Title(参考訳): 低侵襲手術ビデオにおける弱半教師付きツール検出
- Authors: Ryo Fujii and Ryo Hachiuma and Hideo Saito
- Abstract要約: 外科的ツール検出は、最小侵襲の手術ビデオの分析と評価に不可欠である。
インスタンスレベルのラベルを持つ大規模なイメージデータセットは、アノテーションの負担のために制限されることが多い。
本研究では,非常にコストのかかるアノテーションの重み付けと検出性能のバランスをとることを提案する。
- 参考スコア(独自算出の注目度): 11.61305113932032
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Surgical tool detection is essential for analyzing and evaluating minimally
invasive surgery videos. Current approaches are mostly based on supervised
methods that require large, fully instance-level labels (i.e., bounding boxes).
However, large image datasets with instance-level labels are often limited
because of the burden of annotation. Thus, surgical tool detection is important
when providing image-level labels instead of instance-level labels since
image-level annotations are considerably more time-efficient than
instance-level annotations. In this work, we propose to strike a balance
between the extremely costly annotation burden and detection performance. We
further propose a co-occurrence loss, which considers a characteristic that
some tool pairs often co-occur together in an image to leverage image-level
labels. Encapsulating the knowledge of co-occurrence using the co-occurrence
loss helps to overcome the difficulty in classification that originates from
the fact that some tools have similar shapes and textures. Extensive
experiments conducted on the Endovis2018 dataset in various data settings show
the effectiveness of our method.
- Abstract(参考訳): 外科的ツール検出は、最小侵襲の手術ビデオの分析と評価に不可欠である。
現在のアプローチは、主に大きなインスタンスレベルのラベル(すなわちバウンディングボックス)を必要とする教師付きメソッドに基づいている。
しかし、アノテーションの負担のため、インスタンスレベルのラベルを持つ大きな画像データセットは制限されることが多い。
したがって、画像レベルのアノテーションはインスタンスレベルのアノテーションよりもはるかに時間効率がよいため、インスタンスレベルのラベルの代わりに画像レベルのラベルを提供する場合、手術用ツールの検出が重要である。
本研究では,非常にコストのかかるアノテーション負荷と検出性能のバランスをとることを提案する。
さらに,画像レベルのラベルを活用するために,複数のツールペアが画像内で共起する特性を考慮した共起損失を提案する。
共起損失を用いた共起知識のカプセル化は、いくつかのツールが類似した形状やテクスチャを持っているという事実から生じる分類の難しさを克服するのに役立つ。
各種データ設定におけるEndovis2018データセットの大規模な実験により,本手法の有効性が示された。
関連論文リスト
- Deep Bayesian Active Learning-to-Rank with Relative Annotation for Estimation of Ulcerative Colitis Severity [10.153691271169745]
本稿では,相対的アノテーションに対して適切なペアを自動的に選択する深ベイズ能動的学習 to ランクを提案する。
本手法は,サンプルのモデル不確実性から,ラベルのないペアに高い学習効率でアノテートする。
論文 参考訳(メタデータ) (2024-09-08T02:19:40Z) - Domain Adaptive Multiple Instance Learning for Instance-level Prediction
of Pathological Images [45.132775668689604]
アノテーションのコストを増大させることなく、ターゲットデータセットの分類性能を向上させるためのタスク設定を提案する。
両手法の監督情報を効果的に組み合わせるために,信頼性の高い擬似ラベルを作成する手法を提案する。
論文 参考訳(メタデータ) (2023-04-07T08:31:06Z) - Semi-weakly Supervised Contrastive Representation Learning for Retinal
Fundus Images [0.2538209532048867]
本稿では,半弱化アノテーションを用いた表現学習のための,半弱化教師付きコントラスト学習フレームワークを提案する。
SWCLの移動学習性能を7つの公立網膜眼底データセットで実証的に検証した。
論文 参考訳(メタデータ) (2021-08-04T15:50:09Z) - Learning from Partially Overlapping Labels: Image Segmentation under
Annotation Shift [68.6874404805223]
腹部臓器分節の文脈におけるラベルの重複から学ぶためのいくつかの方法を提案する。
半教師付きアプローチと適応的クロスエントロピー損失を組み合わせることで、不均一な注釈付きデータをうまく活用できることが判明した。
論文 参考訳(メタデータ) (2021-07-13T09:22:24Z) - Mixed Supervision Learning for Whole Slide Image Classification [88.31842052998319]
超高解像度画像のための混合監視学習フレームワークを提案する。
パッチトレーニングの段階では、このフレームワークは、粗いイメージレベルのラベルを使用して、自己教師付き学習を洗練することができる。
画素レベルの偽陽性と偽陰性を抑制するための包括的な戦略が提案されている。
論文 参考訳(メタデータ) (2021-07-02T09:46:06Z) - Semi-supervised Semantic Segmentation with Directional Context-aware
Consistency [66.49995436833667]
我々は、ラベル付きデータの小さなセットに、全くラベル付けされていない画像のより大きなコレクションを提供する半教師付きセグメンテーション問題に焦点をあてる。
好ましいハイレベル表現は、自己認識を失わずにコンテキスト情報をキャプチャするべきである。
我々は,DCロス(Directional Contrastive Loss)を画素対ピクセルの整合性を達成するために提示する。
論文 参考訳(メタデータ) (2021-06-27T03:42:40Z) - Large-Scale Unsupervised Person Re-Identification with Contrastive
Learning [17.04597303816259]
ほとんどの既存の非監視およびドメイン適応ReIDメソッドは、実験で公開データセットのみを使用します。
コントラスト学習による大規模自己監視画像分類の最近の進歩に触発され, 大規模非ラベル監視映像だけでReID表現を学習することを提案する。
論文 参考訳(メタデータ) (2021-05-17T14:55:08Z) - Towards Good Practices for Efficiently Annotating Large-Scale Image
Classification Datasets [90.61266099147053]
多数の画像の分類ラベルを収集するための効率的なアノテーション戦略を検討する。
人間のラベリング作業を最小化するための修正とベストプラクティスを提案します。
ImageNet100の125kイメージサブセットのシミュレーション実験では、平均で0.35のアノテーションで80%のトップ-1の精度でアノテートできることが示されている。
論文 参考訳(メタデータ) (2021-04-26T16:29:32Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。