論文の概要: All's well that FID's well? Result quality and metric scores in GAN
models for lip-sychronization tasks
- arxiv url: http://arxiv.org/abs/2212.13810v1
- Date: Wed, 28 Dec 2022 13:06:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 14:34:58.717909
- Title: All's well that FID's well? Result quality and metric scores in GAN
models for lip-sychronization tasks
- Title(参考訳): FIDは大丈夫ですか?
唇同期作業におけるGANモデルにおける結果品質と測定値
- Authors: Carina Geldhauser, Johan Liljegren, Pontus Nordqvist
- Abstract要約: PytorchでLipGANを再実装し、データセットGRIDでトレーニングします。
我々は,LipGANアーキテクチャに適応したL1WGAN-GPとGRIDでトレーニングしたL1WGAN-GPを比較した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We test the performance of GAN models for lip-synchronization. For this, we
reimplement LipGAN in Pytorch, train it on the dataset GRID and compare it to
our own variation, L1WGAN-GP, adapted to the LipGAN architecture and also
trained on GRID.
- Abstract(参考訳): リップ同期のためのGANモデルの性能を検証した。
このために、PytorchでLipGANを再実装し、データセットGRIDでトレーニングし、LipGANアーキテクチャに適応し、GRIDでトレーニングしたL1WGAN-GPと比較する。
関連論文リスト
- RAG-DDR: Optimizing Retrieval-Augmented Generation Using Differentiable Data Rewards [78.74923079748521]
Retrieval-Augmented Generation (RAG) は、Large Language Models (LLMs) における幻覚を緩和する効果を証明している。
現在のアプローチでは、命令チューニングを使用してLLMを最適化し、検索した知識を活用する能力を改善している。
本稿では,異なるRAGモジュール間でデータ嗜好を整列させることでRAGシステムを訓練するDDR法を提案する。
論文 参考訳(メタデータ) (2024-10-17T12:53:29Z) - A Benchmark on Directed Graph Representation Learning in Hardware Designs [18.69695581399691]
有向グラフ表現学習(DGRL)は、回路網リスト、計算グラフを符号化し、ハードウェア性能予測のための代理モデルを開発する上で重要である。
本研究では,5つのハードウェア設計データセットと,回路抽象化のレベルにまたがる13の予測タスクからなる新しいベンチマークを提案する。
トップパフォーマンスモデルには、BI-MPNN層にインターリーブされたPE強化GTとBI-グラフ同型ネットワークがある。
論文 参考訳(メタデータ) (2024-10-09T01:32:48Z) - RankRAG: Unifying Context Ranking with Retrieval-Augmented Generation in LLMs [60.38044044203333]
大規模言語モデル(LLM)は、通常、検索拡張生成(RAG)において、レトリバーからトップkコンテキストを利用する。
本稿では,RAGにおける文脈ランク付けと回答生成の両目的のために,単一のLLMをチューニング可能な新しい命令微調整フレームワークであるRanRAGを提案する。
例えば、GPT-4-0613, GPT-4-turbo-2024-0409, ChatQA-1.5, RAGベンチマークの最先端性能を備えたオープンソースモデルなどである。
論文 参考訳(メタデータ) (2024-07-02T17:59:17Z) - SMaRt: Improving GANs with Score Matching Regularity [94.81046452865583]
生成的敵ネットワーク(GAN)は通常、基礎となる多様体が複雑である非常に多様なデータから学ぶのに苦労する。
スコアマッチングは、生成したデータポイントを実データ多様体へ持続的にプッシュする能力のおかげで、この問題に対する有望な解決策であることを示す。
スコアマッチング規則性(SMaRt)を用いたGANの最適化を提案する。
論文 参考訳(メタデータ) (2023-11-30T03:05:14Z) - Challenging the Myth of Graph Collaborative Filtering: a Reasoned and Reproducibility-driven Analysis [50.972595036856035]
本稿では,6つの人気グラフと最近のグラフ推薦モデルの結果を再現するコードを提案する。
これらのグラフモデルと従来の協調フィルタリングモデルを比較する。
ユーザの近所からの情報フローを調べることにより,データセット構造における内在的特徴にどのようなモデルが影響するかを同定することを目的とする。
論文 参考訳(メタデータ) (2023-08-01T09:31:44Z) - ReFactorGNNs: Revisiting Factorisation-based Models from a
Message-Passing Perspective [42.845783579293]
本稿では、ReFactorGNNを提案することにより、因子モデル(FM)とグラフニューラルネットワーク(GNN)のギャップを埋める。
我々は、勾配降下手順をメッセージパッシング操作として再構成することにより、FMをGNNとしてキャストする方法を示す。
我々のReFactorGNNは、FMに匹敵するトランスダクティブ性能と最先端のインダクティブ性能を実現し、パラメータの桁数を桁違いに減らした。
論文 参考訳(メタデータ) (2022-07-20T15:39:30Z) - LHNN: Lattice Hypergraph Neural Network for VLSI Congestion Prediction [70.31656245793302]
格子ハイパーグラフ(格子ハイパーグラフ)は、回路のための新しいグラフ定式化である。
LHNNは、F1スコアのU-netやPix2Pixと比べて、35%以上の改善を常に達成している。
論文 参考訳(メタデータ) (2022-03-24T03:31:18Z) - GRecX: An Efficient and Unified Benchmark for GNN-based Recommendation [55.55523188090938]
我々はGNNベースのレコメンデーションモデルのベンチマークを行うためのオープンソースのフレームワークであるGRecXを紹介する。
GRecXは、GNNベースのレコメンデーションベンチマークを構築するためのコアライブラリと、人気のあるGNNベースのレコメンデーションモデルの実装で構成されている。
我々はGRecXを用いて実験を行い、実験の結果、GRecXはGNNベースの推薦基準を効率的かつ統一的にトレーニングし、ベンチマークすることができることを示した。
論文 参考訳(メタデータ) (2021-11-19T17:45:46Z) - Epoch-evolving Gaussian Process Guided Learning [17.94922325342153]
GPGL(Epoch-evolving Gaussian Process Guided Learning)は,バッチレベル分布とグローバルデータ分布の相関情報を特徴付けることを目的とする。
文脈ラベルと基底真理ラベルのガイダンスにより、GPGLスキームは三角形の整合性損失でモデルパラメータを更新することで、より効率的な最適化を提供する。
我々のGPGLスキームはより一般化され、現在のディープモデルに自然に適用でき、主要なデータセット上で既存のバッチベースの最先端モデルよりも優れている。
論文 参考訳(メタデータ) (2020-06-25T12:45:17Z) - Gaussian Gated Linear Networks [32.27304928359326]
本稿では,最近提案されたディープニューラルネットワークのGLNファミリの拡張であるGaussian Gated Linear Network (G-GLN)を提案する。
機能を学ぶためにバックプロパゲーションを使う代わりに、GLNは凸目標の最適化に基づいて、分散型でローカルなクレジット割り当て機構を持つ。
論文 参考訳(メタデータ) (2020-06-10T17:25:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。