論文の概要: Hijack-GAN: Unintended-Use of Pretrained, Black-Box GANs
- arxiv url: http://arxiv.org/abs/2011.14107v3
- Date: Wed, 23 Oct 2024 20:55:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-25 12:50:26.105192
- Title: Hijack-GAN: Unintended-Use of Pretrained, Black-Box GANs
- Title(参考訳): Hijack-GAN: トレーニング済みのブラックボックスガンの意図しない使用法
- Authors: Hui-Po Wang, Ning Yu, Mario Fritz,
- Abstract要約: 現状のGANモデルは、無条件画像生成以外の様々な用途に利用できることを示す。
我々は、画像生成プロセスの制御も可能な反復的なスキームによりこれを達成した。
- 参考スコア(独自算出の注目度): 57.90008929377144
- License:
- Abstract: While Generative Adversarial Networks (GANs) show increasing performance and the level of realism is becoming indistinguishable from natural images, this also comes with high demands on data and computation. We show that state-of-the-art GAN models -- such as they are being publicly released by researchers and industry -- can be used for a range of applications beyond unconditional image generation. We achieve this by an iterative scheme that also allows gaining control over the image generation process despite the highly non-linear latent spaces of the latest GAN models. We demonstrate that this opens up the possibility to re-use state-of-the-art, difficult to train, pre-trained GANs with a high level of control even if only black-box access is granted. Our work also raises concerns and awareness that the use cases of a published GAN model may well reach beyond the creators' intention, which needs to be taken into account before a full public release. Code is available at https://github.com/hui-po-wang/hijackgan.
- Abstract(参考訳): Generative Adversarial Networks (GANs) は、パフォーマンスの向上とリアリズムのレベルが自然画像と区別できないものになりつつある一方で、データや計算に対する高い要求も伴っている。
我々は、現在最先端のGANモデル(研究者や業界が公開しているような)が、無条件の画像生成を超えて幅広い用途に利用できることを示した。
我々は、最新のGANモデルの非線形潜在空間にもかかわらず、画像生成プロセスの制御を可能にする反復的なスキームによってこれを達成した。
これにより、ブラックボックスアクセスのみを許可しても、高いレベルの制御で、最先端で訓練が難しい、事前訓練済みのGANを再利用できるようになる。
我々の研究は、公開されたGANモデルの使用例がクリエーターの意図を超えるかもしれないという懸念と認識も引き起こします。
コードはhttps://github.com/hui-po-wang/hijackgan.comで入手できる。
関連論文リスト
- U-KAN Makes Strong Backbone for Medical Image Segmentation and Generation [48.40120035775506]
Kolmogorov-Arnold Networks (KAN)は、非線形学習可能なアクティベーション関数のスタックを通じてニューラルネットワーク学習を再構築する。
トークン化中間表現であるU-KAN上に専用kan層を統合することにより,確立したU-Netパイプラインを検証,修正,再設計する。
さらに、拡散モデルにおける代替U-Netノイズ予測器としてのU-KANの可能性を探り、タスク指向モデルアーキテクチャの生成にその適用性を実証した。
論文 参考訳(メタデータ) (2024-06-05T04:13:03Z) - Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional
Image Synthesis [62.07413805483241]
Steered Diffusionは、無条件生成のために訓練された拡散モデルを用いたゼロショット条件画像生成のためのフレームワークである。
塗装,着色,テキスト誘導セマンティック編集,画像超解像などのタスクに対して,ステアリング拡散を用いた実験を行った。
論文 参考訳(メタデータ) (2023-09-30T02:03:22Z) - Spatial Steerability of GANs via Self-Supervision from Discriminator [123.27117057804732]
本稿では,GANの空間的ステアビリティを向上させるための自己教師型アプローチを提案する。
具体的には、空間帰納バイアスとして生成モデルの中間層に符号化されるランダムなガウス熱マップを設計する。
推論中、ユーザは直感的に空間のヒートマップと対話し、シーンのレイアウトを調整したり、移動したり、オブジェクトを削除したりすることで、出力画像を編集することができる。
論文 参考訳(メタデータ) (2023-01-20T07:36:29Z) - GLIGEN: Open-Set Grounded Text-to-Image Generation [97.72536364118024]
Grounded-Language-to-Image Generationは、既存のテキスト・画像拡散モデルの機能を基盤として拡張した新しいアプローチである。
我々のモデルは、キャプションとバウンディングボックス条件入力で、オープンワールドの接地テキスト2img生成を実現する。
GLIGENのCOCOおよびLVISでのゼロショット性能は、既存の教師付きレイアウト・ツー・イメージベースラインよりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2023-01-17T18:58:58Z) - GIU-GANs: Global Information Utilization for Generative Adversarial
Networks [3.3945834638760948]
本稿では,Involution Generative Adversarial Networks (GIU-GANs) と呼ばれる新しいGANを提案する。
GIU-GANは、Squeeze-and-Excitation Networks (SENet)とInvolutionを統合したGlobal Information utilization (GIU)モジュールと呼ばれる新しいモジュールを利用している。
バッチ正規化(BN)は、ジェネレータがサンプリングしたノイズ間の表現差を必然的に無視し、生成した画質を劣化させる。
論文 参考訳(メタデータ) (2022-01-25T17:17:15Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - TinyGAN: Distilling BigGAN for Conditional Image Generation [2.8072597424460466]
BigGANはImageNetの画像生成の質を大幅に改善しましたが、巨大なモデルが必要で、リソースに制約のあるデバイスへのデプロイが困難になります。
本稿では,GANを圧縮するためのブラックボックス知識蒸留フレームワークを提案する。
教師ネットワークとしてBigGANを前提として、私たちは、インセプションとFIDスコアの競合的なパフォーマンスを達成するために、はるかに小さな学生ネットワークをトレーニングしました。
論文 参考訳(メタデータ) (2020-09-29T07:33:49Z) - On Leveraging Pretrained GANs for Generation with Limited Data [83.32972353800633]
生成的敵ネットワーク(GAN)は、しばしば(人間によって)実際の画像と区別できない非常に現実的な画像を生成することができる。
このように生成されたほとんどの画像はトレーニングデータセットには含まれておらず、GAN生成データでトレーニングセットを増強する可能性を示唆している。
我々は、大規模なデータセットで事前訓練された既存のGANモデルを活用し、トランスファーラーニングの概念に従って追加の知識を導入する。
限られたデータを用いた生成における提案手法の有効性を示すため, 広範囲な実験を行った。
論文 参考訳(メタデータ) (2020-02-26T21:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。