論文の概要: Context Aware Image Annotation in Active Learning
- arxiv url: http://arxiv.org/abs/2002.02775v1
- Date: Thu, 6 Feb 2020 16:57:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 13:13:48.847825
- Title: Context Aware Image Annotation in Active Learning
- Title(参考訳): アクティブラーニングにおけるコンテキスト対応画像アノテーション
- Authors: Yingcheng Sun and Kenneth Loparo
- Abstract要約: 画像メタデータを類似度指標として用いたコンテキスト認識画像フレームワーク(CAIAF)を提案する。
実験により,CAIAFのアノテーションコストを従来のフレームワークと比較して低減し,高い分類性能を維持した。
- 参考スコア(独自算出の注目度): 0.38073142980733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image annotation for active learning is labor-intensive. Various automatic
and semi-automatic labeling methods are proposed to save the labeling cost, but
a reduction in the number of labeled instances does not guarantee a reduction
in cost because the queries that are most valuable to the learner may be the
most difficult or ambiguous cases, and therefore the most expensive for an
oracle to label accurately. In this paper, we try to solve this problem by
using image metadata to offer the oracle more clues about the image during
annotation process. We propose a Context Aware Image Annotation Framework
(CAIAF) that uses image metadata as similarity metric to cluster images into
groups for annotation. We also present useful metadata information as context
for each image on the annotation interface. Experiments show that it reduces
that annotation cost with CAIAF compared to the conventional framework, while
maintaining a high classification performance.
- Abstract(参考訳): アクティブラーニングのための画像アノテーションは労働集約的です。
ラベル付けコストを削減するために,様々な自動および半自動ラベリング手法が提案されているが,学習者にとって最も価値のあるクエリは最も困難あるいは曖昧なケースであり,オラクルが正確なラベル付けを行うのに最もコストがかかるため,ラベル付きインスタンス数の削減はコスト削減を保証していない。
本稿では,画像メタデータを用いて,oracle がアノテーションプロセス中に画像についてもっと手掛かりを提供することによって,この問題を解決しようとしている。
本稿では,画像メタデータを類似度メトリクスとして使用し,画像をグループに分類するcaiaf(context aware image annotation framework)を提案する。
また,アノテーションインタフェース上の各画像のコンテキストとして有用なメタデータ情報を提案する。
実験により,CAIAFのアノテーションコストを従来のフレームワークと比較して低減し,高い分類性能を維持した。
関連論文リスト
- Weakly Semi-supervised Tool Detection in Minimally Invasive Surgery
Videos [11.61305113932032]
外科的ツール検出は、最小侵襲の手術ビデオの分析と評価に不可欠である。
インスタンスレベルのラベルを持つ大規模なイメージデータセットは、アノテーションの負担のために制限されることが多い。
本研究では,非常にコストのかかるアノテーションの重み付けと検出性能のバランスをとることを提案する。
論文 参考訳(メタデータ) (2024-01-05T13:05:02Z) - Toward Real-Time Image Annotation Using Marginalized Coupled Dictionary
Learning [0.0]
限られた数の視覚的プロトタイプとそれに対応するセマンティクスを同時に学習するために,新しい統合辞書学習手法を提案する。
このアプローチはリアルタイムな画像アノテーションの手順につながる。
論文 参考訳(メタデータ) (2023-04-14T03:01:44Z) - SciAnnotate: A Tool for Integrating Weak Labeling Sources for Sequence
Labeling [55.71459234749639]
SciAnnotateはSciAnnotateという名前のテキストアノテーションのためのウェブベースのツールで、科学的なアノテーションツールを指す。
我々のツールは、弱いラベルを作成するために複数のユーザフレンドリーなインターフェースを提供する。
本研究では,Bertifying Conditional Hidden Markov Modelを用いて,ツールが生成する弱いラベルを識別する手法を提案する。
論文 参考訳(メタデータ) (2022-08-07T19:18:13Z) - DualCoOp: Fast Adaptation to Multi-Label Recognition with Limited
Annotations [61.41339201200135]
本稿では,部分ラベル MLR とゼロショット MLR の統一フレームワークとして,Dual Context Optimization (DualCoOp) を提案する。
DualCoOpは、事前訓練された視覚言語フレームワークに非常に軽い学習可能なオーバーヘッドしか導入しないため、マルチラベル認識タスクに迅速に適応できる。
論文 参考訳(メタデータ) (2022-06-20T02:36:54Z) - Unpaired Image Captioning by Image-level Weakly-Supervised Visual
Concept Recognition [83.93422034664184]
未ペア画像キャプション(UIC)とは、訓練段階で画像キャプチャペアを使わずに画像を記述することである。
既存の研究の多くは、既成のアルゴリズムを使って視覚的概念を得る。
画像レベルラベルを用いたコスト効率の高いUICを実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-07T08:02:23Z) - Rethinking Crowdsourcing Annotation: Partial Annotation with Salient
Labels for Multi-Label Image Classification [20.48996482670661]
本稿では,クラウドソーシングによる画像アノテーションの再考を提案する。
我々の仮説は、アノテータが有意なラベルを持つ複数ラベルの画像を部分的にアノテートするだけでは、アノテーションエラーが少なくなるというものである。
同じアノテーション予算で、有能なアノテーションを持つ画像で教師されるマルチラベル画像が、完全に注釈付けされた画像で教師されるモデルより優れていることを示す。
論文 参考訳(メタデータ) (2021-09-06T18:28:53Z) - Mixed Supervision Learning for Whole Slide Image Classification [88.31842052998319]
超高解像度画像のための混合監視学習フレームワークを提案する。
パッチトレーニングの段階では、このフレームワークは、粗いイメージレベルのラベルを使用して、自己教師付き学習を洗練することができる。
画素レベルの偽陽性と偽陰性を抑制するための包括的な戦略が提案されている。
論文 参考訳(メタデータ) (2021-07-02T09:46:06Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - Few-Shot Semantic Segmentation Augmented with Image-Level Weak
Annotations [23.02986307143718]
ショットセマンティックセグメンテーションの最近の進歩は、わずか数ピクセルレベルの注釈付き例によってこの問題に対処している。
私たちのキーとなるアイデアは、イメージレベルのラベル付きデータから知識を融合させることで、クラスのより優れたプロトタイプ表現を学ぶことです。
画像レベルのアノテーションを統合することで,距離空間におけるクラスプロトタイプ表現を学習するための新しいフレームワークPAIAを提案する。
論文 参考訳(メタデータ) (2020-07-03T04:58:20Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z) - Block Annotation: Better Image Annotation for Semantic Segmentation with
Sub-Image Decomposition [18.67383884921177]
フルイメージのアノテーションは高価で、専門家は1枚あたり90分まで費やしている。
本稿では,フルイメージアノテーションの代替としてブロックサブイメージアノテーションを提案する。
ブロックアノテーションはフルイメージアノテーションよりも高い品質でクラウドソースできることがわかった。
論文 参考訳(メタデータ) (2020-02-16T17:42:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。