論文の概要: Controlling the image generation process with parametric activation functions
- arxiv url: http://arxiv.org/abs/2510.15778v1
- Date: Fri, 17 Oct 2025 16:02:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.702002
- Title: Controlling the image generation process with parametric activation functions
- Title(参考訳): パラメトリックアクティベーション関数による画像生成過程の制御
- Authors: Ilia Pavlov,
- Abstract要約: 本稿では,対話や実験を通じてモデルをよりよく理解するシステムを提案する。
FFHQ と ImageNet で訓練したStyleGAN2 と BigGAN のネットワーク上で,本手法の有効性を実証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As image generative models continue to increase not only in their fidelity but also in their ubiquity the development of tools that leverage direct interaction with their internal mechanisms in an interpretable way has received little attention In this work we introduce a system that allows users to develop a better understanding of the model through interaction and experimentation By giving users the ability to replace activation functions of a generative network with parametric ones and a way to set the parameters of these functions we introduce an alternative approach to control the networks output We demonstrate the use of our method on StyleGAN2 and BigGAN networks trained on FFHQ and ImageNet respectively.
- Abstract(参考訳): 画像生成モデルが忠実度だけでなく,その汎用性においても,内部機構との直接的相互作用を活用するツールの開発にはあまり注目されていないため,本研究では,ユーザが対話や実験を通じてモデルをよりよく理解するシステムを導入し,ユーザが生成ネットワークの活性化機能をパラメトリックなものに置き換える機能を提供し,これらの機能パラメータを設定することで,ネットワーク出力を制御する代替アプローチを導入する。
関連論文リスト
- ScaleWeaver: Weaving Efficient Controllable T2I Generation with Multi-Scale Reference Attention [86.93601565563954]
ScaleWeaverは、高度な視覚的自己回帰(VAR)モデルに基づいて、高忠実で制御可能な生成を実現するために設計されたフレームワークである。
提案された参照注意モジュールは image$rightarrow$condition から不要な注意を排除し、計算コストを削減している。
実験によると、ScaleWeaverは、拡散ベースの方法よりも優れた効率を実現しつつ、高品質な生成と正確な制御を提供する。
論文 参考訳(メタデータ) (2025-10-16T17:00:59Z) - CEIDM: A Controlled Entity and Interaction Diffusion Model for Enhanced Text-to-Image Generation [11.838706306867373]
テキスト・ツー・イメージ(T2I)生成では、エンティティとその複雑な相互作用の複雑さが大きな課題となる。
本稿では,エンティティとインタラクションの二重制御による拡散モデルに基づく画像生成手法CEIDMを提案する。
実験により、CEIDM法は、エンティティ制御とインタラクション制御の両方において、最も代表的な方法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-08-25T07:58:57Z) - DSReLU: A Novel Dynamic Slope Function for Superior Model Training [2.2057562301812674]
このアプローチの理論的根拠は、ReLUのような従来のアクティベーション関数に関連する制限を克服することである。
提案手法は,Mini-ImageNet,CIFAR-100,MIT-BIHデータセットに基づいて,分類基準と一般化能力の改善を実証した。
論文 参考訳(メタデータ) (2024-08-17T10:01:30Z) - Multilinear Operator Networks [60.7432588386185]
ポリノミアルネットワーク(Polynomial Networks)は、アクティベーション関数を必要としないモデルのクラスである。
マルチリニア演算子のみに依存するMONetを提案する。
論文 参考訳(メタデータ) (2024-01-31T16:52:19Z) - HAT: Hybrid Attention Transformer for Image Restoration [61.74223315807691]
トランスフォーマーに基づく手法は、画像の超解像や復調といった画像復元タスクにおいて顕著な性能を示している。
本稿では,新たなHAT(Hybrid Attention Transformer)を提案する。
我々のHATは,定量的かつ定性的に,最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-09-11T05:17:55Z) - A Generic Shared Attention Mechanism for Various Backbone Neural Networks [53.36677373145012]
自己注意モジュール(SAM)は、異なる層にまたがる強い相関した注意マップを生成する。
Dense-and-Implicit Attention (DIA)はSAMをレイヤ間で共有し、長期間のメモリモジュールを使用する。
我々のシンプルで効果的なDIAは、様々なネットワークバックボーンを一貫して拡張できます。
論文 参考訳(メタデータ) (2022-10-27T13:24:08Z) - Activating More Pixels in Image Super-Resolution Transformer [53.87533738125943]
トランスフォーマーベースの手法は、画像超解像のような低レベルの視覚タスクにおいて顕著な性能を示している。
本稿では,新たなHAT(Hybrid Attention Transformer)を提案する。
提案手法は1dB以上で最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2022-05-09T17:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。