論文の概要: TCuPGAN: A novel framework developed for optimizing human-machine
interactions in citizen science
- arxiv url: http://arxiv.org/abs/2311.14177v1
- Date: Thu, 23 Nov 2023 19:49:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 16:27:58.567930
- Title: TCuPGAN: A novel framework developed for optimizing human-machine
interactions in citizen science
- Title(参考訳): TCuPGAN:市民科学における人間と機械の相互作用を最適化するための新しいフレームワーク
- Authors: Ramanakumar Sankar and Kameswara Mantha and Lucy Fortson and Helen
Spiers and Thomas Pengo and Douglas Mashek and Myat Mo and Mark Sanders and
Trace Christensen and Jeffrey Salisbury and Laura Trouille
- Abstract要約: 本稿では,パッチワイド逆数と長期記憶を利用した3次元セグメンテーションのための新しい汎用モデルを提案する。
これらのキューブの2次元スライスのうち、一部の部分しかボランティアが見ることができない反復的人間機械最適化フレームワークを提案する。
この枠組みと選択手法を実証し、その結果、ボランティア活動が60%以上減少する結果となった。
- 参考スコア(独自算出の注目度): 6.53422204860384
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the era of big data in scientific research, there is a necessity to
leverage techniques which reduce human effort in labeling and categorizing
large datasets by involving sophisticated machine tools. To combat this
problem, we present a novel, general purpose model for 3D segmentation that
leverages patch-wise adversariality and Long Short-Term Memory to encode
sequential information. Using this model alongside citizen science projects
which use 3D datasets (image cubes) on the Zooniverse platforms, we propose an
iterative human-machine optimization framework where only a fraction of the 2D
slices from these cubes are seen by the volunteers. We leverage the patch-wise
discriminator in our model to provide an estimate of which slices within these
image cubes have poorly generalized feature representations, and
correspondingly poor machine performance. These images with corresponding
machine proposals would be presented to volunteers on Zooniverse for
correction, leading to a drastic reduction in the volunteer effort on citizen
science projects. We trained our model on ~2300 liver tissue 3D electron
micrographs. Lipid droplets were segmented within these images through human
annotation via the `Etch A Cell - Fat Checker' citizen science project, hosted
on the Zooniverse platform. In this work, we demonstrate this framework and the
selection methodology which resulted in a measured reduction in volunteer
effort by more than 60%. We envision this type of joint human-machine
partnership will be of great use on future Zooniverse projects.
- Abstract(参考訳): 科学研究におけるビッグデータの時代において、高度な機械ツールによって大規模データセットのラベル付けや分類に人間の労力を削減できる技術を活用する必要がある。
この問題に対処するために,パッチワイド逆数とLong Short-Term Memoryを利用して逐次情報をエンコードする3次元セグメンテーションの汎用モデルを提案する。
このモデルと3dデータセット(画像キューブ)をzooniverseプラットフォームで使用する市民科学プロジェクトと合わせて,これらのキューブからの2dスライスのほんの一部がボランティアによって見られる反復的ヒューマンマシン最適化フレームワークを提案する。
我々は,このモデルのパッチワイズ判別器を用いて,画像キューブ内のスライスが特徴表現に乏しい部分と,それに対応するマシン性能の低下を推定する。
これらの画像と対応する機械の提案は、修正のためにZooniverseのボランティアに提示され、市民科学プロジェクトにおけるボランティア活動の大幅な削減につながった。
約2300個の肝組織3D電子顕微鏡でモデルを訓練した。
脂質滴は、zoonniverseプラットフォームにホストされた「etch a cell - fat checker」市民科学プロジェクトを通じて人間のアノテーションを通して画像内に分割された。
本研究では,この枠組みと選択手法を実証し,ボランティア活動の60%以上削減を実現した。
このタイプの人間と機械のパートナーシップは、将来のZooniverseプロジェクトで大いに役立つだろう。
関連論文リスト
- DressRecon: Freeform 4D Human Reconstruction from Monocular Video [64.61230035671885]
本稿では,モノクラービデオから時間一貫性のある人体モデルを再構築する手法を提案する。
非常にゆるい衣服やハンドヘルドオブジェクトのインタラクションに重点を置いています。
DressReconは、先行技術よりも忠実度の高い3D再構築を実現している。
論文 参考訳(メタデータ) (2024-09-30T17:59:15Z) - HRP: Human Affordances for Robotic Pre-Training [15.92416819748365]
本稿では,手,物,接触の事前学習のためのフレームワークを提案する。
実世界の5つのタスクにおいて、この空き時間事前学習がパフォーマンスを最低15%向上させることを実験的に実証した(3000以上のロボット試験を用いて)。
論文 参考訳(メタデータ) (2024-07-26T17:59:52Z) - Beyond Self-Attention: Deformable Large Kernel Attention for Medical
Image Segmentation [3.132430938881454]
我々は,大コンボリューションカーネルを用いて,ボリュームコンテキストを十分に理解するための注意機構であるtextbfDeformable Large Kernel Attention (D-LKA Attention) の概念を紹介した。
提案するアテンション機構は, 変形可能な畳み込みの利点を生かして, サンプリンググリッドを柔軟にワープし, モデルが多様なデータパターンに適切に適応できるようにする。
論文 参考訳(メタデータ) (2023-08-31T20:21:12Z) - Learning 3D Human Pose Estimation from Dozens of Datasets using a
Geometry-Aware Autoencoder to Bridge Between Skeleton Formats [80.12253291709673]
本稿では,アフィン結合型オートエンコーダ(ACAE)法を提案する。
このアプローチは、28人の人間のポーズデータセットを使って1つのモデルを監督する、極端なマルチデータセット体制にスケールします。
論文 参考訳(メタデータ) (2022-12-29T22:22:49Z) - Deep Generative Models on 3D Representations: A Survey [81.73385191402419]
生成モデルは、新しいインスタンスを生成することによって観測データの分布を学習することを目的としている。
最近、研究者は焦点を2Dから3Dにシフトし始めた。
3Dデータの表現は、非常に大きな課題をもたらします。
論文 参考訳(メタデータ) (2022-10-27T17:59:50Z) - Jointformer: Single-Frame Lifting Transformer with Error Prediction and
Refinement for 3D Human Pose Estimation [11.592567773739407]
人間の3次元ポーズ推定技術は、人間の動きデータの可用性を大幅に向上させる可能性がある。
シングルイメージ2D-3Dリフトの最高の性能モデルは、通常、異なる体節間の関係を定義するために手動入力を必要とするグラフ畳み込みネットワーク(GCN)を使用する。
より一般化された自己認識機構を用いてこれらの関係を学習するトランスフォーマーに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2022-08-07T12:07:19Z) - StyleGAN-Human: A Data-Centric Odyssey of Human Generation [96.7080874757475]
この研究は、データ中心の観点から、"データエンジニアリング"における複数の重要な側面を調査します。
さまざまなポーズやテクスチャを抽出した230万以上のサンプルで、大規模な人間の画像データセットを収集し、注釈付けします。
本稿では,データサイズ,データ分布,データアライメントといった,スタイルGANに基づく人為的生成のためのデータ工学における3つの重要な要素について精査する。
論文 参考訳(メタデータ) (2022-04-25T17:55:08Z) - Recovering 3D Human Mesh from Monocular Images: A Survey [49.00136388529404]
単眼画像から人間のポーズと形状を推定することは、コンピュータビジョンにおける長年の問題である。
本調査は, 単分子型3次元メッシュ回収の課題に焦点を当てた。
論文 参考訳(メタデータ) (2022-03-03T18:56:08Z) - Synthetic Training for Monocular Human Mesh Recovery [100.38109761268639]
本稿では,RGB画像と大規模に異なる複数の身体部位の3次元メッシュを推定することを目的とする。
主な課題は、2D画像のすべての身体部分の3Dアノテーションを完備するトレーニングデータがないことである。
本稿では,D2S(Deep-to-scale)投影法を提案する。
論文 参考訳(メタデータ) (2020-10-27T03:31:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。