論文の概要: Discovering Multiple and Diverse Directions for Cognitive Image
Properties
- arxiv url: http://arxiv.org/abs/2202.11772v1
- Date: Wed, 23 Feb 2022 20:39:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 16:17:50.336447
- Title: Discovering Multiple and Diverse Directions for Cognitive Image
Properties
- Title(参考訳): 認知的画像特性の多種多様な方向の発見
- Authors: Umut Kocasari, Alperen Bag, Oguz Kaan Yuksel and Pinar Yanardag
- Abstract要約: 興味のある分野の多様かつ多様な方向を探索する新しい枠組みを提案する。
特に,記憶可能性,情緒的妥当性,美学などの認知特性の操作に着目した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research has shown that it is possible to find interpretable
directions in the latent spaces of pre-trained GANs. These directions enable
controllable generation and support a variety of semantic editing operations.
While previous work has focused on discovering a single direction that performs
a desired editing operation such as zoom-in, limited work has been done on the
discovery of multiple and diverse directions that can achieve the desired edit.
In this work, we propose a novel framework that discovers multiple and diverse
directions for a given property of interest. In particular, we focus on the
manipulation of cognitive properties such as Memorability, Emotional Valence
and Aesthetics. We show with extensive experiments that our method successfully
manipulates these properties while producing diverse outputs. Our project page
and source code can be found at http://catlab-team.github.io/latentcognitive.
- Abstract(参考訳): 近年の研究では、事前訓練されたGANの潜伏空間で解釈可能な方向を見つけることが可能であることが示されている。
これらの方向は制御可能な生成を可能にし、様々な意味編集操作をサポートする。
前回の研究はズームインのような所望の編集操作を実行する1つの方向の発見に重点を置いてきたが、所望の編集を実現する複数の多様な方向の発見に限定された作業が行われている。
そこで本研究では,特定の対象物に対して,多様かつ多様な方向を求める新しい枠組みを提案する。
特に,記憶可能性,情緒的妥当性,美学などの認知特性の操作に焦点をあてる。
提案手法は,様々な出力を生成しつつ,これらの特性をうまく操作できることを示す。
プロジェクトのページとソースコードはhttp://catlab-team.github.io/latentcognitive.com/で閲覧できます。
関連論文リスト
- Spatial Steerability of GANs via Self-Supervision from Discriminator [123.27117057804732]
本稿では,GANの空間的ステアビリティを向上させるための自己教師型アプローチを提案する。
具体的には、空間帰納バイアスとして生成モデルの中間層に符号化されるランダムなガウス熱マップを設計する。
推論中、ユーザは直感的に空間のヒートマップと対話し、シーンのレイアウトを調整したり、移動したり、オブジェクトを削除したりすることで、出力画像を編集することができる。
論文 参考訳(メタデータ) (2023-01-20T07:36:29Z) - Discovering Class-Specific GAN Controls for Semantic Image Synthesis [73.91655061467988]
本稿では,事前訓練されたSISモデルの潜在空間において,空間的に不整合なクラス固有方向を求める新しい手法を提案する。
提案手法によって検出される潜在方向は,セマンティッククラスの局所的な外観を効果的に制御できることを示す。
論文 参考訳(メタデータ) (2022-12-02T21:39:26Z) - Towards Counterfactual Image Manipulation via CLIP [106.94502632502194]
既存の方法は、顔画像の年齢や性別など、さまざまな視覚特性をリアルに編集することができる。
コントラスト・ランゲージ・イメージ・プレトレーニング(CLIP)を用いたテキスト駆動方式でこの問題を考察する。
定義済みのCLIP空間の方向を利用して、異なる視点から所望の方向に向けて編集を誘導する新しいコントラスト損失を設計する。
論文 参考訳(メタデータ) (2022-07-06T17:02:25Z) - Fantastic Style Channels and Where to Find Them: A Submodular Framework
for Discovering Diverse Directions in GANs [0.0]
StyleGAN2は、リッチでゆがみのある潜在空間のために、様々な画像生成および操作タスクを可能にした。
そこで我々は,StyleGAN2の潜在空間において,最も代表的で多様な方向のサブセットを見つけるための,新しいサブモジュラー・フレームワークを設計する。
本フレームワークは,クラスタの概念を用いて多様性を促進し,グリーディ最適化方式で効率的に解ける。
論文 参考訳(メタデータ) (2022-03-16T10:35:41Z) - Attention Option-Critic [56.50123642237106]
本稿では,オプション批判フレームワークへの注意に基づく拡張を提案する。
これは、状態抽象化も可能な振る舞いに多様な選択肢をもたらすことを示す。
また、学習した選択肢のより効率的で、解釈可能で、再利用可能な性質を、オプション批判と比較して示す。
論文 参考訳(メタデータ) (2022-01-07T18:44:28Z) - Embodied Learning for Lifelong Visual Perception [33.02424587900808]
我々は、新しいモデルを開発し、建物内を航行する様々なエージェントを比較し、生涯の視覚知覚を具体化して研究する。
エージェントの目的は、探索とアクティブな視覚学習を組み合わせたプロセスの最後に、建物全体のオブジェクトやその他のセマンティッククラスを認識することである。
論文 参考訳(メタデータ) (2021-12-28T10:47:13Z) - Glimpse-Attend-and-Explore: Self-Attention for Active Visual Exploration [47.01485765231528]
アクティブな視覚探索は、限られた視野を持つエージェントが部分的な観察に基づいて環境を理解するのを支援することを目的としている。
タスク固有の不確実性マップではなく、自己注意を用いて視覚探索をガイドするGlimpse-Attend-and-Exploreモデルを提案する。
私たちのモデルは、探索を駆動する際のデータセットバイアスに頼らずに、奨励的な結果を提供します。
論文 参考訳(メタデータ) (2021-08-26T11:41:03Z) - JOKR: Joint Keypoint Representation for Unsupervised Cross-Domain Motion
Retargeting [53.28477676794658]
ビデオにおける教師なしの動作は ディープ・ニューラル・ネットワークによって 大幅に進歩しました
JOKR(Joint Keypoint Representation)は、オブジェクトの事前やデータ収集を必要とせずに、ソースとターゲットのビデオの両方を処理する。
本手法は質的かつ定量的に評価し,異なる動物,異なる花,人間など,さまざまなクロスドメインシナリオを扱うことを示す。
論文 参考訳(メタデータ) (2021-06-17T17:32:32Z) - Interpreting the Latent Space of Generative Adversarial Networks using
Supervised Learning [1.231476564107544]
本稿では,ganの隠れ空間についてより詳しく知るために,人間の知識をエンコードする。
この教師付き方式により、生成した画像の正確な操作により、有望な結果が得られる。
我々のモデルはタスク固有の問題に向いているが、実装の容易さ、正確性、堅牢性、リッチなプロパティセットの許容性が、多くの現在のアプリケーションの結果を高めることを願っている。
論文 参考訳(メタデータ) (2021-02-24T09:00:18Z) - Unsupervised Discovery of Disentangled Manifolds in GANs [74.24771216154105]
解釈可能な生成プロセスは、様々な画像編集アプリケーションに有用である。
本稿では,任意の学習された生成逆数ネットワークが与えられた潜在空間における解釈可能な方向を検出する枠組みを提案する。
論文 参考訳(メタデータ) (2020-11-24T02:18:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。