論文の概要: DeepNAG: Deep Non-Adversarial Gesture Generation
- arxiv url: http://arxiv.org/abs/2011.09149v1
- Date: Wed, 18 Nov 2020 08:00:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 04:20:16.566975
- Title: DeepNAG: Deep Non-Adversarial Gesture Generation
- Title(参考訳): deepnag: 深い非敵のジェスチャー生成
- Authors: Mehran Maghoumi, Eugene M. Taranta II, Joseph J. LaViola Jr
- Abstract要約: GAN(Generative Adversarial Network)では,画像データ拡張性能が向上している。
GANは同時生成と識別器ネットワークのトレーニングを必要とする。
我々はまず,DeepGANと呼ばれるジェスチャー合成のための新しいデバイスに依存しないGANモデルについて論じる。
- 参考スコア(独自算出の注目度): 4.46895288699085
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthetic data generation to improve classification performance (data
augmentation) is a well-studied problem. Recently, generative adversarial
networks (GAN) have shown superior image data augmentation performance, but
their suitability in gesture synthesis has received inadequate attention.
Further, GANs prohibitively require simultaneous generator and discriminator
network training. We tackle both issues in this work. We first discuss a novel,
device-agnostic GAN model for gesture synthesis called DeepGAN. Thereafter, we
formulate DeepNAG by introducing a new differentiable loss function based on
dynamic time warping and the average Hausdorff distance, which allows us to
train DeepGAN's generator without requiring a discriminator. Through
evaluations, we compare the utility of DeepGAN and DeepNAG against two
alternative techniques for training five recognizers using data augmentation
over six datasets. We further investigate the perceived quality of synthesized
samples via an Amazon Mechanical Turk user study based on the HYPE benchmark.
We find that DeepNAG outperforms DeepGAN in accuracy, training time (up to 17x
faster), and realism, thereby opening the door to a new line of research in
generator network design and training for gesture synthesis. Our source code is
available at https://www.deepnag.com.
- Abstract(参考訳): 分類性能を改善するための合成データ生成(データ拡張)はよく研究されている問題である。
近年,gan (generative adversarial networks) は画像データ拡張性能が優れているが,ジェスチャ合成に適さないことが注目されている。
さらにganは、同時生成器と判別器ネットワークのトレーニングを禁止する。
この作業では両方の問題に取り組みます。
我々はまず,DeepGANと呼ばれるジェスチャー合成のための新しいデバイスに依存しないGANモデルについて論じる。
その後、動的時間ワープと平均ハウスドルフ距離に基づく新たな微分損失関数を導入してDeepNAGを定式化し、識別器を必要とせずにDeepGANの発電機を訓練する。
評価を通じて、DeepGANとDeepNAGの有用性を、6つのデータセットでデータ拡張を使用して5つの認識器を訓練する2つの代替手法と比較する。
さらに,HyPEベンチマークに基づくAmazon Mechanical Turkユーザスタディを用いて,合成サンプルの知覚品質について検討した。
DeepNAGはDeepGANの精度、トレーニング時間(最大17倍高速)、リアリズムに優れており、ジェネレータネットワークの設計とジェスチャ合成のためのトレーニングにおける新たな研究への扉を開く。
ソースコードはhttps://www.deepnag.comで閲覧できます。
関連論文リスト
- FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - Boosting Semi-Supervised 2D Human Pose Estimation by Revisiting Data Augmentation and Consistency Training [54.074020740827855]
SSHPEは、高度なデータ拡張と簡潔な一貫性のトレーニング方法という、2つのコアから強化できることがわかった。
このシンプルでコンパクトな設計は解釈可能であり、新しく発見された拡張の恩恵を受けやすい。
本研究は,従来の人体画像,魚眼画像,人手画像に対するアプローチの優位性と汎用性を広く検証する。
論文 参考訳(メタデータ) (2024-02-18T12:27:59Z) - Generative adversarial networks for data-scarce spectral applications [0.0]
合成スペクトルデータ生成分野におけるGANの応用について報告する。
CWGANは,低データ方式の性能向上を図り,サロゲートモデルとして機能することを示す。
論文 参考訳(メタデータ) (2023-07-14T16:27:24Z) - Spider GAN: Leveraging Friendly Neighbors to Accelerate GAN Training [20.03447539784024]
本稿では,画像を入力とするGANの学習手法を提案する。
このプロセスは、密接に関連するデータセットや、ターゲット分布のフレンドリーな近所'を識別することで、効率的に行うことができる。
我々は、スパイダーガンの定式化がより高速な収束をもたらすことを示し、ジェネレータは、一見無関係なデータセットでさえ対応を発見できることを示した。
論文 参考訳(メタデータ) (2023-05-12T17:03:18Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Rebooting ACGAN: Auxiliary Classifier GANs with Stable Training [45.70113212633225]
条件付き生成逆数ネットワーク(cGAN)は、クラス情報をGANに組み込んで現実的な画像を生成する。
最も一般的なcGANの1つは、ソフトマックスクロスエントロピー損失(ACGAN)を持つ補助分類器GANである。
ACGANはまた、多様性の欠如により容易に分類できるサンプルを生成する傾向がある。
論文 参考訳(メタデータ) (2021-11-01T17:51:33Z) - Local Augmentation for Graph Neural Networks [78.48812244668017]
本稿では,局所的な部分グラフ構造によりノード特性を向上する局所拡張を提案する。
局所的な拡張に基づいて、プラグイン・アンド・プレイ方式で任意のGNNモデルに適用可能な、LA-GNNという新しいフレームワークをさらに設計する。
論文 参考訳(メタデータ) (2021-09-08T18:10:08Z) - Bag of Tricks for Training Deeper Graph Neural Networks: A Comprehensive
Benchmark Study [100.27567794045045]
ディープグラフニューラルネットワーク(GNN)のトレーニングは、非常に難しい。
我々は、深層GNNの「トリック」を評価するための最初の公正かつ再現可能なベンチマークを示す。
論文 参考訳(メタデータ) (2021-08-24T05:00:37Z) - xAI-GAN: Enhancing Generative Adversarial Networks via Explainable AI
Systems [16.360144499713524]
Generative Adversarial Networks (GAN) は、現実的な画像、音楽、テキスト、その他のデータの生成に成功しているディープニューラルネットワーク(DNN)の革命的なクラスである。
本稿では、AI(xAI)システムにおける最近の進歩を活用して、識別器からジェネレータへの「よりリッチな」修正フィードバックを提供する新しいGANクラスを提案する。
我々は、xAI-GANが標準GANよりも、MNISTとFMNISTの両方のデータセットで生成された画像の品質を最大23.18%向上させるのを観察する。
論文 参考訳(メタデータ) (2020-02-24T18:38:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。