論文の概要: GANzilla: User-Driven Direction Discovery in Generative Adversarial
Networks
- arxiv url: http://arxiv.org/abs/2207.08320v1
- Date: Sun, 17 Jul 2022 23:55:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 02:30:30.682405
- Title: GANzilla: User-Driven Direction Discovery in Generative Adversarial
Networks
- Title(参考訳): GANzilla: ジェネレーティブ・ディレクティブ・ネットワークにおけるユーザ駆動指向ディスカバリ
- Authors: Noyan Evirgen, Xiang 'Anthony' Chen
- Abstract要約: Generative Adversarial Network (GAN) は、データ前処理、画像編集、クリエイティビティサポートなど、多くのアプリケーション領域で広く採用されている。
GANの「ブラックボックス」の性質は、非専門家ユーザーがモデルが生成するデータを制御するのを防ぐ。
本稿では,ユーザ主導のツールであるGANzillaを提案する。
- 参考スコア(独自算出の注目度): 8.715123728970646
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Adversarial Network (GAN) is widely adopted in numerous
application areas, such as data preprocessing, image editing, and creativity
support. However, GAN's 'black box' nature prevents non-expert users from
controlling what data a model generates, spawning a plethora of prior work that
focused on algorithm-driven approaches to extract editing directions to control
GAN. Complementarily, we propose a GANzilla: a user-driven tool that empowers a
user with the classic scatter/gather technique to iteratively discover
directions to meet their editing goals. In a study with 12 participants,
GANzilla users were able to discover directions that (i) edited images to match
provided examples (closed-ended tasks) and that (ii) met a high-level goal,
e.g., making the face happier, while showing diversity across individuals
(open-ended tasks).
- Abstract(参考訳): Generative Adversarial Network (GAN) は、データ前処理、画像編集、クリエイティビティサポートなど、多くのアプリケーション領域で広く採用されている。
しかしながら、GANの「ブラックボックス」の性質は、非専門家のユーザがモデルが生成するデータを制御するのを妨げ、GANを制御するための編集方向を抽出するアルゴリズム駆動アプローチに焦点を当てた、多くの先行作業を生み出している。
並行して,従来の散布・収集手法をユーザに与えることで,編集目標を達成するための方向を反復的に発見するツールであるganzillaを提案する。
12人の被験者を対象にした調査で、ガンジラのユーザーはその方向を見つけることができた。
(i)提供された例に合致する編集画像(クローズドテッドタスク)等
(ii)個人間で多様性を示しながら、顔をより幸せにする(開放されたタスク)といったハイレベルな目標に出会った。
関連論文リスト
- Black-Box Training Data Identification in GANs via Detector Networks [2.4554686192257424]
訓練されたGANへのアクセスと、基礎となる分布からの新鮮なサンプルが、攻撃者が与えられたポイントがGANのトレーニングデータのメンバーであるかどうかを効率的に識別できるかどうかを調査する。
これは、著作権のあるデータがGANのトレーニングに使用されたかどうかをユーザが判断したいという著作権に関する理由と、トレーニングセットのメンバシップを検出する能力がメンバシップ推論アタックとして知られているデータプライバシに関する理由の両方に興味深い。
ブラックボックス設定におけるGANに対するメンバーシップ推論攻撃のスイートを導入し、我々の攻撃を評価する。
論文 参考訳(メタデータ) (2023-10-18T15:53:20Z) - DragDiffusion: Harnessing Diffusion Models for Interactive Point-based Image Editing [94.24479528298252]
DragGANは、ピクセルレベルの精度で印象的な編集結果を実現する、インタラクティブなポイントベースの画像編集フレームワークである。
大規模な事前学習拡散モデルを利用することで、実画像と拡散画像の両方における対話的点ベース編集の適用性を大幅に向上する。
本稿では,対話的点ベース画像編集手法の性能を評価するため,DragBenchというベンチマークデータセットを提案する。
論文 参考訳(メタデータ) (2023-06-26T06:04:09Z) - Drag Your GAN: Interactive Point-based Manipulation on the Generative Image Manifold [79.94300820221996]
DragGANはGAN(Generative Adversarial Network)を制御する新しい方法である
DragGANを使えば、ピクセルの行き先を正確に制御して、動物、車、人間、風景などのさまざまなカテゴリのポーズ、形状、表現、レイアウトを操作することができる。
定性的かつ定量的な比較は、画像操作や点追跡のタスクにおいて、以前のアプローチよりもDragGANの利点を示している。
論文 参考訳(メタデータ) (2023-05-18T13:41:25Z) - GANravel: User-Driven Direction Disentanglement in Generative
Adversarial Networks [8.715123728970646]
GAN(Generative Adversarial Network)には、画像編集、ドメイン翻訳、データ計算の欠如、クリエイティブな作業のサポートなど、多くのアプリケーション領域がある。
GANravelは、既存のGANアーキテクチャを補完し、編集方向を反復的に改善する、ユーザ主導の方向転換ツールである。
参加者16名を対象にした2つのユーザスタディにおいて, GANravel のユーザは方向を乱すことができ, 最先端の方向発見ベースラインよりも高い性能を示した。
論文 参考訳(メタデータ) (2023-01-31T20:21:01Z) - Discovering Class-Specific GAN Controls for Semantic Image Synthesis [73.91655061467988]
本稿では,事前訓練されたSISモデルの潜在空間において,空間的に不整合なクラス固有方向を求める新しい手法を提案する。
提案手法によって検出される潜在方向は,セマンティッククラスの局所的な外観を効果的に制御できることを示す。
論文 参考訳(メタデータ) (2022-12-02T21:39:26Z) - Fantastic Style Channels and Where to Find Them: A Submodular Framework
for Discovering Diverse Directions in GANs [0.0]
StyleGAN2は、リッチでゆがみのある潜在空間のために、様々な画像生成および操作タスクを可能にした。
そこで我々は,StyleGAN2の潜在空間において,最も代表的で多様な方向のサブセットを見つけるための,新しいサブモジュラー・フレームワークを設計する。
本フレームワークは,クラスタの概念を用いて多様性を促進し,グリーディ最適化方式で効率的に解ける。
論文 参考訳(メタデータ) (2022-03-16T10:35:41Z) - Towards Discovery and Attribution of Open-world GAN Generated Images [18.10496076534083]
本稿では,未確認のGANから生成した画像の反復的探索アルゴリズムを提案する。
アルゴリズムはネットワークトレーニング,分散検出,クラスタリング,マージ,洗練といった複数のコンポーネントで構成されている。
私たちの実験は、新しいganを発見し、オープンワールドのセットアップで使用できるアプローチの有効性を示しています。
論文 参考訳(メタデータ) (2021-05-10T18:00:13Z) - MineGAN++: Mining Generative Models for Efficient Knowledge Transfer to
Limited Data Domains [77.46963293257912]
本稿では,特定の対象領域に最も有益である知識をマイニングした生成モデルのための新しい知識伝達手法を提案する。
これは、各事前訓練されたGANの生成分布のどの部分が対象領域に最も近いサンプルを出力しているかを識別するマイカネットワークを用いて行われる。
提案手法はMineGANと呼ばれ,ターゲット画像が少ない領域に効果的に知識を伝達し,既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-28T13:10:56Z) - Interpreting the Latent Space of Generative Adversarial Networks using
Supervised Learning [1.231476564107544]
本稿では,ganの隠れ空間についてより詳しく知るために,人間の知識をエンコードする。
この教師付き方式により、生成した画像の正確な操作により、有望な結果が得られる。
我々のモデルはタスク固有の問題に向いているが、実装の容易さ、正確性、堅牢性、リッチなプロパティセットの許容性が、多くの現在のアプリケーションの結果を高めることを願っている。
論文 参考訳(メタデータ) (2021-02-24T09:00:18Z) - Unsupervised Discovery of Disentangled Manifolds in GANs [74.24771216154105]
解釈可能な生成プロセスは、様々な画像編集アプリケーションに有用である。
本稿では,任意の学習された生成逆数ネットワークが与えられた潜在空間における解釈可能な方向を検出する枠組みを提案する。
論文 参考訳(メタデータ) (2020-11-24T02:18:08Z) - CoADNet: Collaborative Aggregation-and-Distribution Networks for
Co-Salient Object Detection [91.91911418421086]
Co-Salient Object Detection (CoSOD)は、2つ以上の関連する画像を含む所定のクエリグループに繰り返し現れる健全なオブジェクトを発見することを目的としている。
課題の1つは、画像間の関係をモデリングし、活用することによって、コ・サリヤ・キューを効果的にキャプチャする方法である。
我々は,複数画像から有能かつ反復的な視覚パターンを捉えるために,エンドツーエンドの協調集約配信ネットワーク(CoADNet)を提案する。
論文 参考訳(メタデータ) (2020-11-10T04:28:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。