論文の概要: All's well that FID's well? Result quality and metric scores in GAN
models for lip-sychronization tasks
- arxiv url: http://arxiv.org/abs/2212.13810v1
- Date: Wed, 28 Dec 2022 13:06:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 14:34:58.717909
- Title: All's well that FID's well? Result quality and metric scores in GAN
models for lip-sychronization tasks
- Title(参考訳): FIDは大丈夫ですか?
唇同期作業におけるGANモデルにおける結果品質と測定値
- Authors: Carina Geldhauser, Johan Liljegren, Pontus Nordqvist
- Abstract要約: PytorchでLipGANを再実装し、データセットGRIDでトレーニングします。
我々は,LipGANアーキテクチャに適応したL1WGAN-GPとGRIDでトレーニングしたL1WGAN-GPを比較した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We test the performance of GAN models for lip-synchronization. For this, we
reimplement LipGAN in Pytorch, train it on the dataset GRID and compare it to
our own variation, L1WGAN-GP, adapted to the LipGAN architecture and also
trained on GRID.
- Abstract(参考訳): リップ同期のためのGANモデルの性能を検証した。
このために、PytorchでLipGANを再実装し、データセットGRIDでトレーニングし、LipGANアーキテクチャに適応し、GRIDでトレーニングしたL1WGAN-GPと比較する。
関連論文リスト
- SMaRt: Improving GANs with Score Matching Regularity [94.81046452865583]
生成的敵ネットワーク(GAN)は通常、基礎となる多様体が複雑である非常に多様なデータから学ぶのに苦労する。
スコアマッチングは、生成したデータポイントを実データ多様体へ持続的にプッシュする能力のおかげで、この問題に対する有望な解決策であることを示す。
スコアマッチング規則性(SMaRt)を用いたGANの最適化を提案する。
論文 参考訳(メタデータ) (2023-11-30T03:05:14Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data
Selection for Instruction Tuning [54.222609226692015]
我々は大規模言語モデルのための自己誘導手法を導入し、大規模なオープンソースデータセットからサクラサンプルを自律的に識別し、選択する。
私たちの重要なイノベーションであるIFD(Instruction-Following Difficulty)メトリックは、モデルが期待する応答と自動生成技術との間の相違を識別するための重要なツールとして現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z) - Challenging the Myth of Graph Collaborative Filtering: a Reasoned and
Reproducibility-driven Analysis [69.46993865095247]
本稿では,6つの人気グラフと最近のグラフ推薦モデルの結果を再現するコードを提案する。
これらのグラフモデルと従来の協調フィルタリングモデルを比較する。
ユーザの近所からの情報フローを調べることにより,データセット構造における内在的特徴にどのようなモデルが影響するかを同定することを目的とする。
論文 参考訳(メタデータ) (2023-08-01T09:31:44Z) - ReFactorGNNs: Revisiting Factorisation-based Models from a
Message-Passing Perspective [42.845783579293]
本稿では、ReFactorGNNを提案することにより、因子モデル(FM)とグラフニューラルネットワーク(GNN)のギャップを埋める。
我々は、勾配降下手順をメッセージパッシング操作として再構成することにより、FMをGNNとしてキャストする方法を示す。
我々のReFactorGNNは、FMに匹敵するトランスダクティブ性能と最先端のインダクティブ性能を実現し、パラメータの桁数を桁違いに減らした。
論文 参考訳(メタデータ) (2022-07-20T15:39:30Z) - StudioGAN: A Taxonomy and Benchmark of GANs for Image Synthesis [26.742041215353183]
Generative Adversarial Network (GAN) は、現実的な画像合成のための最先端の生成モデルの一つである。
現在のGAN研究エコシステムは、その評価を一定かつ公平に行うための信頼性の高いベンチマークを提供していない。
我々はGANアプローチの分類について研究し、StudioGANという新しいオープンソースライブラリを提示する。
論文 参考訳(メタデータ) (2022-06-19T20:12:41Z) - LHNN: Lattice Hypergraph Neural Network for VLSI Congestion Prediction [70.31656245793302]
格子ハイパーグラフ(格子ハイパーグラフ)は、回路のための新しいグラフ定式化である。
LHNNは、F1スコアのU-netやPix2Pixと比べて、35%以上の改善を常に達成している。
論文 参考訳(メタデータ) (2022-03-24T03:31:18Z) - GRecX: An Efficient and Unified Benchmark for GNN-based Recommendation [55.55523188090938]
我々はGNNベースのレコメンデーションモデルのベンチマークを行うためのオープンソースのフレームワークであるGRecXを紹介する。
GRecXは、GNNベースのレコメンデーションベンチマークを構築するためのコアライブラリと、人気のあるGNNベースのレコメンデーションモデルの実装で構成されている。
我々はGRecXを用いて実験を行い、実験の結果、GRecXはGNNベースの推薦基準を効率的かつ統一的にトレーニングし、ベンチマークすることができることを示した。
論文 参考訳(メタデータ) (2021-11-19T17:45:46Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z) - Epoch-evolving Gaussian Process Guided Learning [17.94922325342153]
GPGL(Epoch-evolving Gaussian Process Guided Learning)は,バッチレベル分布とグローバルデータ分布の相関情報を特徴付けることを目的とする。
文脈ラベルと基底真理ラベルのガイダンスにより、GPGLスキームは三角形の整合性損失でモデルパラメータを更新することで、より効率的な最適化を提供する。
我々のGPGLスキームはより一般化され、現在のディープモデルに自然に適用でき、主要なデータセット上で既存のバッチベースの最先端モデルよりも優れている。
論文 参考訳(メタデータ) (2020-06-25T12:45:17Z) - Gaussian Gated Linear Networks [32.27304928359326]
本稿では,最近提案されたディープニューラルネットワークのGLNファミリの拡張であるGaussian Gated Linear Network (G-GLN)を提案する。
機能を学ぶためにバックプロパゲーションを使う代わりに、GLNは凸目標の最適化に基づいて、分散型でローカルなクレジット割り当て機構を持つ。
論文 参考訳(メタデータ) (2020-06-10T17:25:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。