論文の概要: Bounding Box Annotation with Visible Status
- arxiv url: http://arxiv.org/abs/2304.04901v1
- Date: Tue, 11 Apr 2023 00:17:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 16:48:09.141789
- Title: Bounding Box Annotation with Visible Status
- Title(参考訳): 可視性を持つバウンディングボックスアノテーション
- Authors: Takuya Kiyokawa, Naoki Shirakura, Hiroki Katayama, Keita Tomochika,
Jun Takamatsu
- Abstract要約: 本研究では,モバイルアプリケーションを用いた自由視点画像キャプチャ手法を提案する。
提案したアプリケーションでは、カメラを移動させることで、バウンディングボックスにアノテートされたマルチビューイメージデータセットを自動的に収集することができる。
実験の結果,ガミフィケーションされたモバイルアプリケーションを用いて,集合の進行状況が明らかな場合,複数ビューオブジェクトの画像データセットを収集する動機付けが可能であることがわかった。
- 参考スコア(独自算出の注目度): 6.69350212746025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training deep-learning-based vision systems requires the manual annotation of
a significant amount of data to optimize several parameters of the deep
convolutional neural networks. Such manual annotation is highly time-consuming
and labor-intensive. To reduce this burden, a previous study presented a fully
automated annotation approach that does not require any manual intervention.
The proposed method associates a visual marker with an object and captures it
in the same image. However, because the previous method relied on moving the
object within the capturing range using a fixed-point camera, the collected
image dataset was limited in terms of capturing viewpoints. To overcome this
limitation, this study presents a mobile application-based free-viewpoint
image-capturing method. With the proposed application, users can collect
multi-view image datasets automatically that are annotated with bounding boxes
by moving the camera. However, capturing images through human involvement is
laborious and monotonous. Therefore, we propose gamified application features
to track the progress of the collection status. Our experiments demonstrated
that using the gamified mobile application for bounding box annotation, with
visible collection progress status, can motivate users to collect multi-view
object image datasets with less mental workload and time pressure in an
enjoyable manner, leading to increased engagement.
- Abstract(参考訳): ディープラーニングに基づく視覚システムのトレーニングには、深層畳み込みニューラルネットワークのパラメータを最適化するために、大量のデータの手動アノテーションが必要である。
このような手動アノテーションは、非常に時間がかかり、労働集約的です。
この負担を軽減するために、以前の研究では、手動の介入を必要としない完全に自動化されたアノテーションアプローチを提示した。
提案手法は、視覚マーカーと物体を関連付け、同じ画像でそれをキャプチャする。
しかし,前者は固定焦点カメラを用いて物体を撮影範囲内へ移動させることに頼っていたため,収集した画像データセットは撮影視点で制限された。
この制限を克服するために,モバイルアプリケーションを用いた自由視点画像キャプチャ手法を提案する。
提案したアプリケーションでは、カメラを移動させることで、バウンディングボックスにアノテートされたマルチビューイメージデータセットを自動的に収集することができる。
しかし、人間の関与による画像の収集は残酷で単調である。
そこで我々は,コレクション状態の進捗を追跡するためのゲーム化アプリケーション機能を提案する。
実験では,ボックスアノテーションのガミファイドなモバイルアプリケーションを用いて,目に見えるコレクションの進捗状況から,視覚的作業量や時間的プレッシャーの少ない多視点オブジェクトイメージデータセットを収集する動機付けを行い,エンゲージメントが向上することを示した。
関連論文リスト
- Learning to Select Camera Views: Efficient Multiview Understanding at
Few Glances [59.34619548026885]
本稿では,対象物やシナリオを所定のビューから分析し,処理に最適なビューを選択するビュー選択手法を提案する。
提案手法は,MVSelectという強化学習に基づくカメラ選択モジュールを備えており,ビューの選択だけでなく,タスクネットワークとの協調トレーニングも容易である。
論文 参考訳(メタデータ) (2023-03-10T18:59:10Z) - Label Assistant: A Workflow for Assisted Data Annotation in Image
Segmentation Tasks [0.8135412538980286]
本稿では,アノテーションプロセスを支援する汎用ワークフローを提案し,抽象レベルでメソッドについて議論する。
これにより、将来性のあるサンプル、画像前処理、ラベル前処理、ラベル検査、アノテーションの後処理などに焦点を当てる可能性について検討する。
さらに,ハイブリッドタッチスクリーン/ラップトップデバイスにネストしたフレキシブルで拡張可能なソフトウェアプロトタイプの開発により,提案手法の実装を提案する。
論文 参考訳(メタデータ) (2021-11-27T19:08:25Z) - Single Image Object Counting and Localizing using Active-Learning [4.56877715768796]
単一画像シナリオにおける反復オブジェクトのカウントとローカライズのための新しい手法を提案する。
本手法は,少数のアクティブ・ラーニング・イテレーションにおいて,入力画像から注意深く収集したラベルの小さなセットに対してCNNを訓練する。
既存のユーザ支援カウント法と比較すると,ユーザマウスのクリック数,ランニングタイムの計測と位置決めの精度の観点から,能動的学習が最先端のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2021-11-16T11:29:21Z) - Data Augmentation for Object Detection via Differentiable Neural
Rendering [71.00447761415388]
注釈付きデータが乏しい場合、堅牢なオブジェクト検出器を訓練することは困難です。
この問題に対処する既存のアプローチには、ラベル付きデータからラベル付きデータを補間する半教師付き学習が含まれる。
オブジェクト検出のためのオフラインデータ拡張手法を導入し、新しいビューでトレーニングデータを意味的に補間する。
論文 参考訳(メタデータ) (2021-03-04T06:31:06Z) - Instance Localization for Self-supervised Detection Pretraining [68.24102560821623]
インスタンスローカリゼーションと呼ばれる,新たな自己監視型プリテキストタスクを提案する。
境界ボックスを事前学習に組み込むことで、より優れたタスクアライメントとアーキテクチャアライメントが促進されることを示す。
実験結果から, オブジェクト検出のための最先端の転送学習結果が得られた。
論文 参考訳(メタデータ) (2021-02-16T17:58:57Z) - Ensembling object detectors for image and video data analysis [98.26061123111647]
本稿では,複数の物体検出器の出力をアンサンブルすることで,画像データ上の境界ボックスの検出性能と精度を向上させる手法を提案する。
本研究では,2段階追跡に基づく検出精度向上手法を提案することで,映像データに拡張する。
論文 参考訳(メタデータ) (2021-02-09T12:38:16Z) - Self-supervised Human Detection and Segmentation via Multi-view
Consensus [116.92405645348185]
本稿では,トレーニング中に幾何学的制約を多視点一貫性という形で組み込むマルチカメラフレームワークを提案する。
本手法は,標準ベンチマークから視覚的に外れた画像に対して,最先端の自己監視的人物検出とセグメンテーション技術に勝ることを示す。
論文 参考訳(メタデータ) (2020-12-09T15:47:21Z) - A Few-Shot Sequential Approach for Object Counting [63.82757025821265]
画像中のオブジェクトに逐次出席するクラスアテンション機構を導入し,それらの特徴を抽出する。
提案手法は点レベルのアノテーションに基づいて訓練され,モデルのクラス依存的・クラス依存的側面を乱す新しい損失関数を用いる。
本稿では,FSODやMS COCOなど,さまざまなオブジェクトカウント/検出データセットについて報告する。
論文 参考訳(メタデータ) (2020-07-03T18:23:39Z) - Iterative Bounding Box Annotation for Object Detection [0.456877715768796]
本稿では,効率的なバウンディングボックスアノテーションのための半自動手法を提案する。
この方法は、ラベル付き画像の小さなバッチに対して、オブジェクト検出器を反復的に訓練する。
次のバッチに対するバウンディングボックスの提案を学習し、その後、人間のアノテータがエラーを修正すればよい。
論文 参考訳(メタデータ) (2020-07-02T08:40:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。