論文の概要: ImagineNet: Restyling Apps Using Neural Style Transfer
- arxiv url: http://arxiv.org/abs/2001.04932v2
- Date: Wed, 4 Mar 2020 20:23:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 12:16:51.945251
- Title: ImagineNet: Restyling Apps Using Neural Style Transfer
- Title(参考訳): imaginenet:neural style transferを使ったリストラアプリ
- Authors: Michael H. Fischer, Richard R. Yang, Monica S. Lam
- Abstract要約: ImagineNetは、新しいニューラルスタイルのトランスファーモデルを使用して、エンドユーザとアプリ開発者がGUIを書き換えることを可能にするツールである。
本研究では,(1)アプリのグラフィカルなアセット,(2)ユーザが提供するコンテンツを持つアプリ,(3)動的に生成されたGUIを持つアプリをリフォームするために,ImagineNetをどのように使用できるかを示す。
- 参考スコア(独自算出の注目度): 7.794885131732119
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents ImagineNet, a tool that uses a novel neural style
transfer model to enable end-users and app developers to restyle GUIs using an
image of their choice. Former neural style transfer techniques are inadequate
for this application because they produce GUIs that are illegible and hence
nonfunctional. We propose a neural solution by adding a new loss term to the
original formulation, which minimizes the squared error in the uncentered
cross-covariance of features from different levels in a CNN between the style
and output images. ImagineNet retains the details of GUIs, while transferring
the colors and textures of the art. We presented GUIs restyled with ImagineNet
as well as other style transfer techniques to 50 evaluators and all preferred
those of ImagineNet. We show how ImagineNet can be used to restyle (1) the
graphical assets of an app, (2) an app with user-supplied content, and (3) an
app with dynamically generated GUIs.
- Abstract(参考訳): 本稿では,新しいニューラルスタイルトランスファーモデルを用いて,エンドユーザとアプリケーション開発者が選択したイメージを使用してguiをリスタイル可能にするツールであるimaginenetを提案する。
従来のニューラルスタイルの転送技術はこの応用には不十分である。
スタイルと出力画像間のcnnにおける特徴の非中心的相互分散における二乗誤差を最小化する、新たな損失項を元の定式化に追加することにより、ニューラルネットワークを提案する。
ImagineNetはGUIの詳細を保持し、アートの色とテクスチャを転送する。
我々は、ImagineNetで書き直されたGUIと、他のスタイル転送テクニックを50個の評価器に提示した。
本論文では,(1)アプリのグラフィカルアセット,(2)ユーザ提供コンテンツのアプリ,(3)動的に生成されたguiを備えたアプリのリスタイルにimaginenetを使用する方法を示す。
関連論文リスト
- ShowUI: One Vision-Language-Action Model for GUI Visual Agent [80.50062396585004]
グラフィカルユーザインタフェース(GUI)アシスタントの構築は、人間のワークフロー生産性を向上させるための大きな約束である。
デジタルワールドにおける視覚言語アクションモデル、すなわちShowUIを開発し、以下のイノベーションを特徴とする。
256Kデータを使用した軽量な2BモデルであるShowUIは、ゼロショットのスクリーンショットグラウンドで75.1%の精度を実現している。
論文 参考訳(メタデータ) (2024-11-26T14:29:47Z) - GUing: A Mobile GUI Search Engine using a Vision-Language Model [6.024602799136753]
本稿ではGUIClipと呼ばれる視覚言語モデルに基づくGUI検索エンジンGUingを提案する。
われわれは最初にGoogle Playアプリの紹介画像から収集し、最も代表的なスクリーンショットを表示する。
そこで我々は,これらの画像からキャプションを分類し,収穫し,抽出する自動パイプラインを開発した。
私たちはこのデータセットを使って新しい視覚言語モデルをトレーニングしました。
論文 参考訳(メタデータ) (2024-04-30T18:42:18Z) - Graph4GUI: Graph Neural Networks for Representing Graphical User Interfaces [27.84098739594353]
Graph4GUIはグラフニューラルネットワークを利用して、個々の要素の特性とセマンティックな空間的制約をレイアウトでキャプチャする。
学習された表現は、その効果を複数のタスクで示し、特に挑戦的なGUIオートコンプリートタスクで設計を生成する。
論文 参考訳(メタデータ) (2024-04-21T04:06:09Z) - Artistic Arbitrary Style Transfer [1.1279808969568252]
任意スタイル転送(英: Arbitrary Style Transfer)とは、コンテンツ画像とスタイル画像という2つの画像から新しい画像を生成する技術である。
構造とスタイルコンポーネントのバランシングは、他の最先端のアルゴリズムが解決しようとしている大きな課題である。
本研究では、畳み込みニューラルネットワークを用いたディープラーニングアプローチを用いて、これらの問題を解決する。
論文 参考訳(メタデータ) (2022-12-21T21:34:00Z) - Learning Diverse Tone Styles for Image Retouching [73.60013618215328]
本稿では,フローベースアーキテクチャの標準化により,多様な画像のリタッチを学習することを提案する。
ジョイントトレーニングパイプラインは、スタイルエンコーダ、条件付きRetouchNet、イメージトーンスタイル正規化フロー(TSFlow)モジュールで構成される。
提案手法は最先端の手法に対して良好に動作し,多様な結果を生成するのに有効である。
論文 参考訳(メタデータ) (2022-07-12T09:49:21Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Image Restoration by Deep Projected GSURE [115.57142046076164]
Ill-posed inverse problem は、デブロアリングや超解像など、多くの画像処理アプリケーションに現れる。
本稿では,一般化されたSteinUnbiased Risk Estimator(GSURE)の「投影変換」とCNNによる潜在画像のパラメータ化を含む損失関数の最小化に基づく,新たな画像復元フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-04T08:52:46Z) - CuratorNet: Visually-aware Recommendation of Art Images [1.7219362335740878]
CuratorNetは、アートイメージを視覚的に認識するためのニューラルネットワークアーキテクチャである。
ネットワークにはパラメータの固定セットがあり、一度だけトレーニングする必要がある。
現状のVBPRなど,いくつかのベースラインにおいて,CuratorNetが最高のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2020-09-09T17:22:17Z) - CrossTransformers: spatially-aware few-shot transfer [92.33252608837947]
非常に少ないデータを持つ新しいタスクを考えると、現代の視覚システムは驚くほど急速に低下する。
現代の視覚システムを支えるニューラルネットワーク表現が、どのようにして監督の崩壊にさらされているかを示す。
そこで我々は,伝達を良くする汎用的な機能を促進するために,自己指導型学習を提案する。
論文 参考訳(メタデータ) (2020-07-22T15:37:08Z) - Geometric Style Transfer [74.58782301514053]
幾何学的スタイルの伝達をサポートするニューラルアーキテクチャを導入する。
新しいアーキテクチャはテクスチャスタイルを転送するネットワークに先立って実行される。
ユーザーはコンテント/スタイルのペアを一般的なように入力したり、コンテント/テクスチャスタイル/幾何学スタイルのトリプルを入力できる。
論文 参考訳(メタデータ) (2020-07-10T16:33:23Z) - P$^2$-GAN: Efficient Style Transfer Using Single Style Image [2.703193151632043]
スタイル転送は、与えられた画像を別の芸術的なスタイルに再レンダリングできる便利な画像合成技術である。
Generative Adversarial Network(GAN)は、ローカルスタイルパターンの表現能力を向上するために、このタスクに対して広く採用されているフレームワークである。
本稿では,ワンスタイル画像からストロークスタイルを効率的に学習できる新しいPatch Permutation GAN(P$2$-GAN)ネットワークを提案する。
論文 参考訳(メタデータ) (2020-01-21T12:08:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。