論文の概要: The Dawn of KAN in Image-to-Image (I2I) Translation: Integrating Kolmogorov-Arnold Networks with GANs for Unpaired I2I Translation
- arxiv url: http://arxiv.org/abs/2408.08216v1
- Date: Thu, 15 Aug 2024 15:26:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-16 13:26:45.313245
- Title: The Dawn of KAN in Image-to-Image (I2I) Translation: Integrating Kolmogorov-Arnold Networks with GANs for Unpaired I2I Translation
- Title(参考訳): イメージ・トゥ・イメージ(I2I)翻訳におけるKanの夜明け:Kolmogorov-Arnold ネットワークと GAN を統合した未ペアI2I 翻訳
- Authors: Arpan Mahara, Naphtali D. Rishe, Liangdong Deng,
- Abstract要約: Kolmogorov-Arnold Network (KAN)は、生成AIにおける多層パーセプトロン(MLP)を効果的に置き換えることができる。
より広範な生成型AIドメインにおいて、Kanは貴重なコンポーネントになり得る、と研究は示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image-to-Image translation in Generative Artificial Intelligence (Generative AI) has been a central focus of research, with applications spanning healthcare, remote sensing, physics, chemistry, photography, and more. Among the numerous methodologies, Generative Adversarial Networks (GANs) with contrastive learning have been particularly successful. This study aims to demonstrate that the Kolmogorov-Arnold Network (KAN) can effectively replace the Multi-layer Perceptron (MLP) method in generative AI, particularly in the subdomain of image-to-image translation, to achieve better generative quality. Our novel approach replaces the two-layer MLP with a two-layer KAN in the existing Contrastive Unpaired Image-to-Image Translation (CUT) model, developing the KAN-CUT model. This substitution favors the generation of more informative features in low-dimensional vector representations, which contrastive learning can utilize more effectively to produce high-quality images in the target domain. Extensive experiments, detailed in the results section, demonstrate the applicability of KAN in conjunction with contrastive learning and GANs in Generative AI, particularly for image-to-image translation. This work suggests that KAN could be a valuable component in the broader generative AI domain.
- Abstract(参考訳): 生成人工知能(Generative AI)における画像から画像への変換は、医療、リモートセンシング、物理、化学、写真など、研究の中心となっている。
多くの方法論の中で、対照的な学習を伴うGAN(Generative Adversarial Networks)が特に成功した。
本研究では,KAN(Kolmogorov-Arnold Network)が生成AIにおける多層パーセプトロン(MLP)手法を,特に画像から画像への翻訳のサブドメインで効果的に置き換えることで,生成品質の向上を実証することを目的とする。
提案手法は,既存のContrastive Unpaired Image-to- Image Translation (CUT)モデルにおいて,2層MLPを2層KANに置き換え,kan-CUTモデルを開発した。
この置換は、低次元ベクトル表現におけるより情報的な特徴の生成を好んでおり、対照的な学習は、より効果的に、ターゲット領域で高品質な画像を生成することができる。
結果のセクションで詳述された広範囲な実験は、特に画像から画像への翻訳において、コントラスト学習とGANの併用性を実証している。
この研究は、kanがより広範な生成AIドメインにおいて価値のあるコンポーネントになり得ることを示唆している。
関連論文リスト
- Mechanisms of Generative Image-to-Image Translation Networks [1.602820210496921]
本稿では,既存のモデルに比べてシンプルなアーキテクチャで,画像間翻訳ネットワークを提案する。
GANモデルに対する逆算は、余分な複雑な損失のペナルティを伴わない既存の手法に匹敵する結果をもたらすことを示す。
論文 参考訳(メタデータ) (2024-11-15T17:17:46Z) - I2I-Galip: Unsupervised Medical Image Translation Using Generative Adversarial CLIP [30.506544165999564]
ペアの例が存在しないため、画像から画像への翻訳は難しい作業である。
我々はイメージ・ツー・イメージ・ジェネレーティブ・アドバイザリアル・CLIP (I2I-Galip) という新しい画像・画像変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-19T01:44:50Z) - U-KAN Makes Strong Backbone for Medical Image Segmentation and Generation [48.40120035775506]
Kolmogorov-Arnold Networks (KAN)は、非線形学習可能なアクティベーション関数のスタックを通じてニューラルネットワーク学習を再構築する。
トークン化中間表現であるU-KAN上に専用kan層を統合することにより,確立したU-Netパイプラインを検証,修正,再設計する。
さらに、拡散モデルにおける代替U-Netノイズ予測器としてのU-KANの可能性を探り、タスク指向モデルアーキテクチャの生成にその適用性を実証した。
論文 参考訳(メタデータ) (2024-06-05T04:13:03Z) - Bi-LORA: A Vision-Language Approach for Synthetic Image Detection [14.448350657613364]
生成逆数ネットワーク(GAN)や拡散モデル(DM)のような深層画像合成技術は、非常に現実的な画像を生成する時代に定着してきた。
本稿では、視覚言語モデル(VLM)のゼロショット特性と相まって、視覚と言語の間の強力な収束能力から着想を得る。
我々は,VLMと低ランク適応(LORA)チューニング技術を組み合わせたBi-LORAと呼ばれる革新的な手法を導入し,未知のモデル生成画像に対する合成画像検出の精度を向上させる。
論文 参考訳(メタデータ) (2024-04-02T13:54:22Z) - Guided Image-to-Image Translation by Discriminator-Generator
Communication [71.86347329356244]
Image-to-image (I2I) 翻訳の目標は、ソースドメインからターゲットドメインに画像を転送することである。
本研究の主な分野は,GAN(Generative Adversarial Network)に基づくI2I翻訳の定式化である。
論文 参考訳(メタデータ) (2023-03-07T02:29:36Z) - Aggregated Contextual Transformations for High-Resolution Image
Inpainting [57.241749273816374]
画像の高精細化のための拡張GANモデルAggregated Contextual-Transformation GAN (AOT-GAN)を提案する。
そこで,提案するAOTブロックの複数のレイヤを積み重ねることで,AOT-GANのジェネレータを構築する。
テクスチャ合成を改善するため,AOT-GANの識別をマスク予測タスクでトレーニングすることで強化する。
論文 参考訳(メタデータ) (2021-04-03T15:50:17Z) - Unpaired Image Enhancement with Quality-Attention Generative Adversarial
Network [92.01145655155374]
品質の注意を払わないデータに基づいて訓練された生成敵対ネットワーク(QAGAN)を提案する。
提案されたQAGANの重要な新規性は、ジェネレータの注入されたQAMにある。
提案手法は客観的評価と主観評価の両方において良好な性能を実現する。
論文 参考訳(メタデータ) (2020-12-30T05:57:20Z) - Unsupervised Image-to-Image Translation via Pre-trained StyleGAN2
Network [73.5062435623908]
本稿では,一連のモデル変換によって対象領域に新たなモデルを生成する新しいI2I翻訳手法を提案する。
潜在ベクトルを生成されたモデルに入力することで、ソースドメインとターゲットドメインの間でI2I翻訳を行うことができる。
論文 参考訳(メタデータ) (2020-10-12T13:51:40Z) - MI^2GAN: Generative Adversarial Network for Medical Image Domain
Adaptation using Mutual Information Constraint [47.07869311690419]
本稿では,ドメイン間I2I翻訳中に画像コンテンツを保持する新しいGANを提案する。
特に、ソース画像と翻訳画像の両方のドメイン情報からコンテンツ特徴を分離する。
提案したMI$2$GANは,大腸内視鏡画像を用いたポリープセグメンテーションと,眼底画像における光ディスクとカップのセグメンテーションの2つの課題について評価した。
論文 参考訳(メタデータ) (2020-07-22T03:19:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。