論文の概要: Reviewing FID and SID Metrics on Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2402.03654v1
- Date: Tue, 6 Feb 2024 03:02:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 16:57:35.525347
- Title: Reviewing FID and SID Metrics on Generative Adversarial Networks
- Title(参考訳): ジェネレーティブ・ディバイサル・ネットワークにおけるFIDとSIDメトリクスのレビュー
- Authors: Ricardo de Deijn, Aishwarya Batra, Brandon Koch, Naseef Mansoor, Hema
Makkena
- Abstract要約: GAN(Generative Adversarial Network)モデルの成長により,画像処理能力が向上した。
これまでの研究では、Fr'echet Inception Distance(FID)が実世界のアプリケーションで画像から画像へのGANをテストする上で有効な指標であることが示されている。
本稿では、Pix2PixとCycleGANモデル内のファサード、都市景観、マップからなる公開データセットを使用する。
トレーニング後、これらのモデルは、トレーニングされたモデルの生成性能を測定する、両方の距離メトリクスに基づいて評価される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The growth of generative adversarial network (GAN) models has increased the
ability of image processing and provides numerous industries with the
technology to produce realistic image transformations. However, with the field
being recently established there are new evaluation metrics that can further
this research. Previous research has shown the Fr\'echet Inception Distance
(FID) to be an effective metric when testing these image-to-image GANs in
real-world applications. Signed Inception Distance (SID), a founded metric in
2023, expands on FID by allowing unsigned distances. This paper uses public
datasets that consist of fa\c{c}ades, cityscapes, and maps within Pix2Pix and
CycleGAN models. After training these models are evaluated on both inception
distance metrics which measure the generating performance of the trained
models. Our findings indicate that usage of the metric SID incorporates an
efficient and effective metric to complement, or even exceed the ability shown
using the FID for the image-to-image GANs
- Abstract(参考訳): generative adversarial network (gan)モデルの成長は画像処理の能力を高め、多くの産業に現実的な画像変換を生み出す技術を提供している。
しかし、最近この分野が確立されているため、この研究をさらに進める新たな評価指標が存在する。
これまでの研究では、Fr\'echet Inception Distance (FID) が実世界のアプリケーションで画像から画像へのGANをテストする上で有効な指標であることが示されている。
2023年に設立されたSID(Signed Inception Distance)は、符号なし距離を許すことでFIDを拡張する。
本稿では, Pix2PixおよびCycleGANモデル内のfa\c{c}ades, cityscapes, mapからなる公開データセットを使用する。
トレーニング後、これらのモデルは、トレーニングされたモデルの生成性能を測定する両方の開始距離指標に基づいて評価される。
以上の結果から,SIDは画像から画像へのGANにFIDを用いて示される能力を補完したり,あるいは超えたりするために,効率的かつ効果的な指標を取り入れていることが示唆された。
関連論文リスト
- Semi-Truths: A Large-Scale Dataset of AI-Augmented Images for Evaluating Robustness of AI-Generated Image detectors [62.63467652611788]
実画像27,600枚、223,400枚、AI拡張画像1,472,700枚を含むSEMI-TRUTHSを紹介する。
それぞれの画像には、検出器のロバスト性の標準化と目標評価のためのメタデータが添付されている。
以上の結果から,現状の検出器は摂動の種類や程度,データ分布,拡張方法に様々な感度を示すことが示唆された。
論文 参考訳(メタデータ) (2024-11-12T01:17:27Z) - GenFace: A Large-Scale Fine-Grained Face Forgery Benchmark and Cross Appearance-Edge Learning [50.7702397913573]
フォトリアリスティック・ジェネレータの急速な進歩は、真の画像と操作された画像の相違がますます不明瞭になっている臨界点に達している。
公開されている顔の偽造データセットはいくつかあるが、偽造顔は主にGANベースの合成技術を用いて生成される。
我々は,大規模で多様できめ細かな高忠実度データセットであるGenFaceを提案し,ディープフェイク検出の進展を促進する。
論文 参考訳(メタデータ) (2024-02-03T03:13:50Z) - Vision Reimagined: AI-Powered Breakthroughs in WiFi Indoor Imaging [4.236383297604285]
全方位信号としてのWiFiは、受動的撮像を行い、最新の情報をすべての接続デバイスに同期させる有望な候補である。
これは、WiFi屋内イメージングを、計測されたWiFi電力を高解像度の屋内画像に変換するマルチモーダル画像生成タスクとして考える最初の研究である。
提案するWiFi-GENネットワークは,物理モデルに基づく手法で実現した形状復元精度の275%を達成している。
論文 参考訳(メタデータ) (2024-01-09T02:20:30Z) - Using Skew to Assess the Quality of GAN-generated Image Features [3.300324211572204]
Fr'echet Inception Distance (FID)は、その概念的単純さ、高速な計算時間、人間の知覚との強い相関により広く採用されている。
本稿では、画像特徴データにおける第3のモーメントの重要性を考察し、この情報を用いて新しい尺度を定義し、Skew Inception Distance (SID) と呼ぶ。
論文 参考訳(メタデータ) (2023-10-31T17:05:02Z) - On quantifying and improving realism of images generated with diffusion [50.37578424163951]
与えられた画像の5つの統計的測度から算出した画像リアリズムスコア(IRS)と呼ばれるメトリクスを提案する。
IRSは、与えられた画像を実または偽のものとして分類する手段として容易に利用できる。
我々は,安定拡散モデル (SDM) , Dalle2, Midjourney, BigGAN による偽画像の検出に成功して,提案したIRSのモデルおよびデータに依存しない性質を実験的に確立した。
このデータセットは、高品質の4つのモデルによって生成される100のクラスに対して1,000のサンプルを提供します。
論文 参考訳(メタデータ) (2023-09-26T08:32:55Z) - Read Pointer Meters in complex environments based on a Human-like
Alignment and Recognition Algorithm [16.823681016882315]
これらの問題を克服するための人間ライクなアライメントと認識アルゴリズムを提案する。
STM(Spatial Transformed Module)は,画像のフロントビューを自己自律的に取得するために提案される。
VAM(Value Acquisition Module)は、エンドツーエンドのトレーニングフレームワークによって正確なメーター値を推測するために提案される。
論文 参考訳(メタデータ) (2023-02-28T05:37:04Z) - Highly Accurate Dichotomous Image Segmentation [139.79513044546]
Dichotomous Image segmentation (DIS)と呼ばれる新しいタスクは、自然画像から高度に正確な物体を抽出することを目的としている。
私たちは、5,470の高解像度画像(例えば、2K、4K以上の画像)を含む最初の大規模データセットdis5Kを収集します。
また、Disdisモデルトレーニングのための特徴レベルとマスクレベルの両方のガイダンスを用いて、単純な中間監視ベースライン(IS-Net)を導入する。
論文 参考訳(メタデータ) (2022-03-06T20:09:19Z) - Effective Shortcut Technique for GAN [6.007303976935779]
GAN(Generative Adversarial Network)ベースの画像生成技術は、複数の残留ブロックを積み重ねてジェネレータを設計する。
残余ブロックは一般に、ネットワーク内の情報伝達を効果的にサポートするショートカット、ieスキップ接続を含んでいる。
本稿では, ゲートショートカットと呼ばれる新しいショートカット手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T07:14:45Z) - Image-free multi-character recognition [0.0]
本稿では,マルチターゲット認識に挑戦する新たなイメージフリーセンシング技術について報告する。
報告されたCRNNネットワークユーティリティは、複数の文字の分布を同時に予測するために双方向LSTMアーキテクチャを利用する。
本手法の有効性を実証し, 87.60%の認識精度を5%サンプリングレートで達成し, 100 FPSリフレッシュレートを高くした。
論文 参考訳(メタデータ) (2021-12-20T15:06:49Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - Unlimited Resolution Image Generation with R2D2-GANs [69.90258455164513]
本稿では,任意の解像度の高品質な画像を生成するための新しいシミュレーション手法を提案する。
この方法では、フル長のミッション中に収集したソナースキャンと同等の大きさのソナースキャンを合成することができる。
生成されたデータは、連続的で、現実的に見え、また、取得の実際の速度の少なくとも2倍の速さで生成される。
論文 参考訳(メタデータ) (2020-03-02T17:49:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。