論文の概要: Minimizing Labeling Effort for Tree Skeleton Segmentation using an
Automated Iterative Training Methodology
- arxiv url: http://arxiv.org/abs/2010.08296v3
- Date: Mon, 9 Aug 2021 07:38:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 21:23:25.707818
- Title: Minimizing Labeling Effort for Tree Skeleton Segmentation using an
Automated Iterative Training Methodology
- Title(参考訳): 自動反復学習手法による木骨格セグメンテーションのラベル付け作業の最小化
- Authors: Keenan Granland, Rhys Newbury, David Ting and Chao Chen
- Abstract要約: 意味的セグメンテーションのための畳み込みニューラルネットワークの訓練には、大量の人的努力が必要である。
ヒューマン・イン・ザ・ループ法はラベル付けの労力を減らすが、画像ごとに人間の介入を必要とする。
新しい-the-Loopメソッドは、人間のループと完全な手動ラベリング手法に匹敵する性能を保ちながら、ラベリングの労力を大幅に削減する。
- 参考スコア(独自算出の注目度): 4.574094598984042
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training of convolutional neural networks for semantic segmentation requires
accurate pixel-wise labeling which requires large amounts of human effort. The
human-in-the-loop method reduces labeling effort; however, it requires human
intervention for each image. This paper describes a general iterative training
methodology for semantic segmentation, Automating-the-Loop. This aims to
replicate the manual adjustments of the human-in-the-loop method with an
automated process, hence, drastically reducing labeling effort. Using the
application of detecting partially occluded apple tree segmentation, we compare
manually labeled annotations, self-training, human-in-the-loop, and
Automating-the-Loop methods in both the quality of the trained convolutional
neural networks, and the effort needed to create them. The convolutional neural
network (U-Net) performance is analyzed using traditional metrics and a new
metric, Complete Grid Scan, which promotes connectivity and low noise. It is
shown that in our application, the new Automating-the-Loop method greatly
reduces the labeling effort while producing comparable performance to both
human-in-the-loop and complete manual labeling methods.
- Abstract(参考訳): セマンティックセグメンテーションのための畳み込みニューラルネットワークのトレーニングには、大量の人的努力を要する正確なピクセルワイドラベリングが必要である。
human-in-the-loop法はラベリングの労力を削減するが、画像ごとに人間の介入を必要とする。
本稿では,セマンティックセグメンテーションのための一般的な反復学習手法であるautomating-the-loopについて述べる。
これは、自動的なプロセスでヒューマン・イン・ザ・ループ法の手動調整を再現することを目的としている。
手動でラベル付けされたアノテーション、自己学習、Human-in-the-loop、Automating-the-Loopの手法を、トレーニングされた畳み込みニューラルネットワークの品質とそれらを作成するために必要な労力の両方で比較する。
畳み込みニューラルネットワーク(U-Net)のパフォーマンスは、従来のメトリクスと、接続性と低ノイズを促進する新しいメトリクスであるComplete Grid Scanを使用して分析される。
本アプリケーションでは,新しいAutomating-the-Loop手法により,人手によるラベリング手法と完全手動ラベリング手法の双方に比較して,ラベリングの労力を大幅に削減できることが示されている。
関連論文リスト
- Self-STORM: Deep Unrolled Self-Supervised Learning for Super-Resolution Microscopy [55.2480439325792]
我々は、シーケンス固有のモデルベースのオートエンコーダをトレーニングすることで、そのようなデータの必要性を軽減する、深層無学習の自己教師付き学習を導入する。
提案手法は, 監視対象の性能を超過する。
論文 参考訳(メタデータ) (2024-03-25T17:40:32Z) - Incrementally-Computable Neural Networks: Efficient Inference for
Dynamic Inputs [75.40636935415601]
ディープラーニングは、センサーデータやユーザ入力などの動的入力を効率的に処理するという課題に直面していることが多い。
インクリメンタルな計算アプローチを採用し、入力の変化に応じて計算を再利用する。
本稿では,この手法をトランスフォーマーアーキテクチャに適用し,修正入力の分数に比例した複雑性を持つ効率的なインクリメンタル推論アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-27T16:30:27Z) - You Only Need One Thing One Click: Self-Training for Weakly Supervised
3D Scene Understanding [107.06117227661204]
私たちはOne Thing One Click''を提案する。つまり、アノテーションはオブジェクトごとに1つのポイントをラベル付けするだけです。
グラフ伝搬モジュールによって促進されるトレーニングとラベル伝搬を反復的に行う。
我々のモデルは、ポイントクラスタリング戦略を備えた3Dインスタンスセグメンテーションと互換性がある。
論文 参考訳(メタデータ) (2023-03-26T13:57:00Z) - HAL3D: Hierarchical Active Learning for Fine-Grained 3D Part Labeling [16.74185233682209]
粒度の細かい3Dパートラベリングのための,最初の能動的学習ツールを提案する。
我々のツールは、ディープニューラルネットワークによって予測される部分ラベルを反復的に検証または修正する。
HAL3Dとよばれる私たちのHAL3Dは、事前に定義された階層的な部分ラベルを持つ任意のテストセットに対して100%の精度を実現しています。
論文 参考訳(メタデータ) (2023-01-25T08:40:34Z) - Active Learning Guided by Efficient Surrogate Learners [25.52920030051264]
1つのデータポイントが新しいラベルを受け取るたびに、ディープラーニングモデルを再トレーニングするのは現実的ではない。
本稿では,ニューラルネットワークの主学習者とともに,ガウス過程の力を利用する新しい能動学習アルゴリズムを提案する。
提案モデルでは,新しいデータインスタンス毎のサロゲート学習者を積極的に更新し,ニューラルネットワークの連続学習ダイナミクスをエミュレートし,活用する。
論文 参考訳(メタデータ) (2023-01-07T01:35:25Z) - Learning from Data with Noisy Labels Using Temporal Self-Ensemble [11.245833546360386]
ディープニューラルネットワーク(DNN)はノイズラベルを記憶する膨大な能力を持つ。
現在最先端の手法では、損失の少ないサンプルを用いて二重ネットワークを訓練するコトレーニング方式が提案されている。
本稿では,単一のネットワークのみをトレーニングすることで,シンプルで効果的なロバストトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T08:16:31Z) - One Thing One Click: A Self-Training Approach for Weakly Supervised 3D
Semantic Segmentation [78.36781565047656]
私たちは、アノテーションーがオブジェクトごとに1ポイントだけラベルを付ける必要があることを意味する「One Thing One Click」を提案します。
グラフ伝搬モジュールによって促進されるトレーニングとラベル伝搬を反復的に行う。
私たちの結果は、完全に監督されたものと同等です。
論文 参考訳(メタデータ) (2021-04-06T02:27:25Z) - The GIST and RIST of Iterative Self-Training for Semi-Supervised
Segmentation [25.43374417092777]
我々は,複数段階にわたる自己訓練の行動を探索する反復的自己訓練手法に着目する。
自己学習の反復は,人間ラベルと疑似ラベルのトレーニング例の一定割合でネイティブに実施すれば,パフォーマンスが低下することを示した。
本稿では,人間ラベルデータと疑似ラベルデータのいずれかのトレーニングとを交互に交互に行う,無作為反復自己学習(gist)とランダム反復自己学習(rist)戦略を提案する。
論文 参考訳(メタデータ) (2021-03-31T14:20:37Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z) - Progressive Graph Convolutional Networks for Semi-Supervised Node
Classification [97.14064057840089]
グラフ畳み込みネットワークは、半教師付きノード分類のようなグラフベースのタスクに対処することに成功した。
本稿では,コンパクトかつタスク固有のグラフ畳み込みネットワークを自動構築する手法を提案する。
論文 参考訳(メタデータ) (2020-03-27T08:32:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。