論文の概要: Leaf Segmentation and Counting with Deep Learning: on Model Certainty,
Test-Time Augmentation, Trade-Offs
- arxiv url: http://arxiv.org/abs/2012.11486v1
- Date: Mon, 21 Dec 2020 17:00:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 11:51:45.414138
- Title: Leaf Segmentation and Counting with Deep Learning: on Model Certainty,
Test-Time Augmentation, Trade-Offs
- Title(参考訳): Leaf Segmentation and Counting with Deep Learning: on Model Certainity, Test-Time Augmentation, Trade-Offs
- Authors: Douglas Pinto Sampaio Gomes, Lihong Zheng
- Abstract要約: 深い教師付き学習は、セグメンテーションと数え葉でのより良いパフォーマンスモデルを提案する最近の研究で広く使われている。
研究グループによる優れた努力にもかかわらず、より良い方法を提案する主な課題の1つは、ラベル付きデータ可用性の制限である。
- 参考スコア(独自算出の注目度): 2.984934409689467
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Plant phenotyping tasks such as leaf segmentation and counting are
fundamental to the study of phenotypic traits. Since it is well-suited for
these tasks, deep supervised learning has been prevalent in recent works
proposing better performing models at segmenting and counting leaves. Despite
good efforts from research groups, one of the main challenges for proposing
better methods is still the limitation of labelled data availability. The main
efforts of the field seem to be augmenting existing limited data sets, and some
aspects of the modelling process have been under-discussed. This paper explores
such topics and present experiments that led to the development of the
best-performing method in the Leaf Segmentation Challenge and in another
external data set of Komatsuna plants. The model has competitive performance
while been arguably simpler than other recently proposed ones. The experiments
also brought insights such as the fact that model cardinality and test-time
augmentation may have strong applications in object segmentation of single
class and high occlusion, and regarding the data distribution of recently
proposed data sets for benchmarking.
- Abstract(参考訳): 葉分画や計数などの植物表現型タスクは、表現型形質の研究に不可欠である。
これらのタスクには適しているため、近年では、セグメンテーションや数え葉でのモデルの改善を提案する研究において、深い教師付き学習が盛んに行われている。
研究グループによる優れた努力にもかかわらず、より良い方法を提案する主な課題の1つは、ラベル付きデータ可用性の制限である。
この分野の主な取り組みは、既存の限られたデータセットの強化であり、モデリングプロセスのいくつかの側面は、過小評価されている。
本稿では,葉分別課題や小松菜の外部データセットにおいて,最も優れた評価手法の開発につながった課題と実験について検討する。
このモデルは、最近提案された他のモデルよりも間違いなくシンプルである。
実験はまた、モデル濃度とテスト時間拡張がシングルクラスとハイオクルージョンのオブジェクトセグメンテーションに強く応用されうるという事実や、最近提案されたベンチマーク用のデータセットのデータ分布といった知見ももたらした。
関連論文リスト
- How Hard is this Test Set? NLI Characterization by Exploiting Training Dynamics [49.9329723199239]
本稿では, 実例と非実例を手作業で構築することなく, 挑戦的なテストセットを自動生成する手法を提案する。
一般的なNLIデータセットのテストセットを,トレーニングダイナミクスを利用した3つの難易度に分類する。
我々の評価法がトレーニングセットに適用された場合、トレーニング対象データのごく一部でトレーニングされたモデルは、フルデータセットでトレーニングされたモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-04T13:39:21Z) - Rejection Sampling IMLE: Designing Priors for Better Few-Shot Image
Synthesis [7.234618871984921]
新たな研究分野は、限られたトレーニングデータで深層生成モデルを学ぶことを目的としている。
トレーニングに使用する事前分布を変更する新しいアプローチであるRS-IMLEを提案する。
これにより、既存のGANやIMLEベースの手法に比べて画質が大幅に向上する。
論文 参考訳(メタデータ) (2024-09-26T00:19:42Z) - Corpus Considerations for Annotator Modeling and Scaling [9.263562546969695]
一般的に使われているユーザトークンモデルは、より複雑なモデルよりも一貫して優れています。
以上の結果から,コーパス統計とアノテータモデリング性能の関係が明らかになった。
論文 参考訳(メタデータ) (2024-04-02T22:27:24Z) - A Survey on Data Selection for Language Models [148.300726396877]
データ選択方法は、トレーニングデータセットに含まれるデータポイントを決定することを目的としている。
ディープラーニングは、主に実証的な証拠によって駆動され、大規模なデータに対する実験は高価である。
広範なデータ選択研究のリソースを持つ組織はほとんどない。
論文 参考訳(メタデータ) (2024-02-26T18:54:35Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Exploring the Impact of Instruction Data Scaling on Large Language
Models: An Empirical Study on Real-World Use Cases [17.431381376675432]
本稿では,命令データのスケールの異なる命令データに対して,命令チューニングに基づく大規模言語モデルの性能について検討する。
ベースモデルとしてBloomz-7B1-mtを用いると、命令データの量を増やすだけで、オープン・エンド・ジェネレーションのようなタスクが継続的に改善されることが示される。
本稿では,高品質なトレーニングデータ,スケールベースモデル,ハードタスクに特化したトレーニング手法を効果的に選択する,といった将来的な研究方向を提案する。
論文 参考訳(メタデータ) (2023-03-26T14:49:37Z) - Data Augmentation techniques in time series domain: A survey and
taxonomy [0.20971479389679332]
時系列を扱うディープニューラルネットワークは、トレーニングで使用されるデータセットのサイズと一貫性に大きく依存する。
この研究は、すべての利用可能なアルゴリズムの概要を提供するために、この分野の最先端を体系的にレビューする。
本研究の究極的な目的は、この分野の将来の研究者を導くために、より良い結果をもたらす領域の進化と性能を概説することである。
論文 参考訳(メタデータ) (2022-06-25T17:09:00Z) - Robust Task-Oriented Dialogue Generation with Contrastive Pre-training
and Adversarial Filtering [17.7709632238066]
データアーティファクトは機械学習モデルにインセンティブを与え、非伝達可能な一般化を学ぶ。
我々は、MultiWOZのような一般的なデータセットがそのようなデータアーティファクトを含んでいるかどうかを検討する。
本稿では,これらの手法を無視し,一般化可能なパターンを学習することをモデルに推奨する,対照的な学習ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-20T03:13:02Z) - On the Efficacy of Adversarial Data Collection for Question Answering:
Results from a Large-Scale Randomized Study [65.17429512679695]
逆データ収集(ADC)では、人間の労働力がモデルとリアルタイムで対話し、誤った予測を誘発する例を作成しようとする。
ADCの直感的な魅力にも拘わらず、敵対的データセットのトレーニングがより堅牢なモデルを生成するかどうかは不明だ。
論文 参考訳(メタデータ) (2021-06-02T00:48:33Z) - Regularizing Generative Adversarial Networks under Limited Data [88.57330330305535]
本研究は、限られたデータ上で堅牢なGANモデルをトレーニングするための正規化手法を提案する。
正規化損失とLeCam-divergenceと呼ばれるf-divergenceの関連性を示す。
論文 参考訳(メタデータ) (2021-04-07T17:59:06Z) - The Devil is in Classification: A Simple Framework for Long-tail Object
Detection and Instance Segmentation [93.17367076148348]
本稿では,最新のロングテールLVISデータセットを用いて,最先端の2段階のインスタンスセグメンテーションモデルMask R-CNNの性能低下について検討する。
主な原因は、オブジェクト提案の不正確な分類である。
そこで本研究では,2段階のクラスバランスサンプリング手法により,分類ヘッドバイアスをより効果的に緩和する,簡単な校正フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T12:49:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。