論文の概要: Few-Shot Learning Enables Population-Scale Analysis of Leaf Traits in
Populus trichocarpa
- arxiv url: http://arxiv.org/abs/2301.10351v1
- Date: Tue, 24 Jan 2023 23:40:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-26 16:14:31.161824
- Title: Few-Shot Learning Enables Population-Scale Analysis of Leaf Traits in
Populus trichocarpa
- Title(参考訳): トウガラシの葉形質の個体群的解析を可能にする少ないショット学習
- Authors: John Lagergren, Mirko Pavicic, Hari B. Chhetri, Larry M. York, P. Doug
Hyatt, David Kainer, Erica M. Rutter, Kevin Flores, Gail Taylor, Daniel
Jacobson, Jared Streich
- Abstract要約: この研究は、(i)最小のトレーニングデータを必要とする高速で正確な画像ベースの特徴抽出のための方法と、(ii)68種類の葉の表現型を含む新しい集団規模のデータセットを、ドメイン科学者や機械学習研究者向けに植物表現型コミュニティに提供するように設計されている。
数発の学習コード、データ、結果はすべて公開されています。
- 参考スコア(独自算出の注目度): 2.018581060359569
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Plant phenotyping is typically a time-consuming and expensive endeavor,
requiring large groups of researchers to meticulously measure biologically
relevant plant traits, and is the main bottleneck in understanding plant
adaptation and the genetic architecture underlying complex traits at population
scale. In this work, we address these challenges by leveraging few-shot
learning with convolutional neural networks (CNNs) to segment the leaf body and
visible venation of 2,906 P. trichocarpa leaf images obtained in the field. In
contrast to previous methods, our approach (i) does not require experimental or
image pre-processing, (ii) uses the raw RGB images at full resolution, and
(iii) requires very few samples for training (e.g., just eight images for vein
segmentation). Traits relating to leaf morphology and vein topology are
extracted from the resulting segmentations using traditional open-source
image-processing tools, validated using real-world physical measurements, and
used to conduct a genome-wide association study to identify genes controlling
the traits. In this way, the current work is designed to provide the plant
phenotyping community with (i) methods for fast and accurate image-based
feature extraction that require minimal training data, and (ii) a new
population-scale data set, including 68 different leaf phenotypes, for domain
scientists and machine learning researchers. All of the few-shot learning code,
data, and results are made publicly available.
- Abstract(参考訳): 植物表現型は一般的に、時間と費用のかかる取り組みであり、研究者の大規模な集団は、生物学的に関連のある植物形質を注意深く測定する必要がある。
本研究では,これらの課題に対して,畳み込みニューラルネットワーク(CNN)を用いて,葉体を分割し,フィールドで得られた2,906 P. trichocarpa の葉像を可視化する。
従来の手法とは対照的に、我々のアプローチ
(i)実験的又は画像前処理を必要としない。
(ii)RGBの生画像をフル解像度で使用し、
(iii) 訓練に必要なサンプルはごくわずかである(例:静脈セグメンテーションの8つの画像のみ)。
従来のオープンソース画像処理ツールを用いて得られたセグメンテーションから葉形態および静脈トポロジーに関連する形質を抽出し、実世界の物理的測定を用いて検証し、ゲノムワイドな関連研究を行い、形質を制御する遺伝子を同定する。
このようにして、現在の作業は、植物表現型コミュニティを提供するように設計されている。
(i)最小限のトレーニングデータを必要とする高速で正確な画像に基づく特徴抽出方法
(ii)ドメイン科学者や機械学習研究者のための、68種類のリーフ表現型を含む新しい集団規模のデータセット。
数発の学習コード、データ、結果はすべて公開されています。
関連論文リスト
- High-Throughput Phenotyping using Computer Vision and Machine Learning [0.0]
我々はオークリッジ国立研究所が提供した1,672枚のPopulus Trichocarpaの画像と白ラベルで治療を行った。
光文字認識(OCR)は、植物上でこれらのラベルを読むために用いられた。
機械学習モデルを用いて,これらの分類に基づいて処理を予測し,解析されたEXIFタグを用いて葉の大きさと表現型間の相関を見いだした。
論文 参考訳(メタデータ) (2024-07-08T19:46:31Z) - Unpaired Image-to-Image Translation with Limited Data to Reveal Subtle
Phenotypes [0.5076419064097732]
本稿では,多数の画像の必要性を軽減するために,自己教師付き識別器を用いた改良型CycleGANアーキテクチャを提案する。
また, 生物学的データセットを用いて, 明らかな細胞表現型および非予防的な細胞表現型変異について検討した。
論文 参考訳(メタデータ) (2023-01-21T16:25:04Z) - Semantic Image Segmentation with Deep Learning for Vine Leaf Phenotyping [59.0626764544669]
本研究では,ブドウの葉のイメージを意味的にセグメント化するためにDeep Learning法を用いて,葉の表現型自動検出システムを開発した。
私たちの研究は、成長や開発のような動的な特性を捉え定量化できる植物ライフサイクルのモニタリングに寄与します。
論文 参考訳(メタデータ) (2022-10-24T14:37:09Z) - Self-Supervised Graph Representation Learning for Neuronal Morphologies [75.38832711445421]
ラベルのないデータセットから3次元神経形態の低次元表現を学習するためのデータ駆動型アプローチであるGraphDINOを提案する。
2つの異なる種と複数の脳領域において、この方法では、専門家による手動の特徴に基づく分類と同程度に形態学的細胞型クラスタリングが得られることを示す。
提案手法は,大規模データセットにおける新しい形態的特徴や細胞型の発見を可能にする可能性がある。
論文 参考訳(メタデータ) (2021-12-23T12:17:47Z) - Classification of Seeds using Domain Randomization on Self-Supervised
Learning Frameworks [0.0]
鍵となるボトルネックは、畳み込みニューラルネットワーク(CNN)をトレーニングする大量のラベル付きデータの必要性である。
この研究は、これを達成するために、コントラスト学習とドメインランダム化の概念を活用している。
実世界の画像の表象的サンプル作物から生成された合成画像の使用は、大量のテスト対象の必要性を軽減する。
論文 参考訳(メタデータ) (2021-03-29T12:50:06Z) - Seed Phenotyping on Neural Networks using Domain Randomization and
Transfer Learning [0.0]
種子表現型は、種子の形態的特性を分析して、その挙動を発達、耐性、収量の観点から予測する考え方である。
研究の焦点は、最先端のオブジェクト検出およびローカリゼーションネットワークの適用および実現可能性分析である。
論文 参考訳(メタデータ) (2020-12-24T14:04:28Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z) - Deep Low-Shot Learning for Biological Image Classification and
Visualization from Limited Training Samples [52.549928980694695]
In situ hybridization (ISH) gene expression pattern image from the same developmental stage。
正確な段階のトレーニングデータをラベル付けするのは、生物学者にとっても非常に時間がかかる。
限られた訓練画像を用いてISH画像を正確に分類する2段階の低ショット学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T06:06:06Z) - Select-ProtoNet: Learning to Select for Few-Shot Disease Subtype
Prediction [55.94378672172967]
本研究は, 類似患者のサブグループを同定し, 数発の疾患のサブタイプ予測問題に焦点を当てた。
新しいモデルを開発するためにメタラーニング技術を導入し、関連する臨床課題から共通の経験や知識を抽出する。
我々の新しいモデルは、単純だが効果的なメタ学習マシンであるPrototypeal Networkと呼ばれる、慎重に設計されたメタラーナーに基づいて構築されている。
論文 参考訳(メタデータ) (2020-09-02T02:50:30Z) - Two-View Fine-grained Classification of Plant Species [66.75915278733197]
本研究では,2視点の葉のイメージ表現に基づく新しい手法と,植物種の粒度認識のための階層的分類戦略を提案する。
シームズ畳み込みニューラルネットワークに基づく深度測定は、多数のトレーニングサンプルへの依存を減らし、新しい植物種に拡張性を持たせるために用いられる。
論文 参考訳(メタデータ) (2020-05-18T21:57:47Z) - Scalable learning for bridging the species gap in image-based plant
phenotyping [2.208242292882514]
ディープラーニング(データ収集、注釈付け、トレーニング)を適用する従来のパラダイムは、イメージベースの植物表現には適用できない。
データコストには、物理的サンプルの育成、イメージングとラベル付けが含まれる。
モデル性能は、各植物種のドメイン間の種間ギャップによって影響を受ける。
論文 参考訳(メタデータ) (2020-03-24T10:26:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。