論文の概要: Style2Code: A Style-Controllable Code Generation Framework with Dual-Modal Contrastive Representation Learning
- arxiv url: http://arxiv.org/abs/2505.19442v1
- Date: Mon, 26 May 2025 03:00:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.130266
- Title: Style2Code: A Style-Controllable Code Generation Framework with Dual-Modal Contrastive Representation Learning
- Title(参考訳): Style2Code: デュアルモーダルなコントラスト表現学習を備えたスタイル制御可能なコード生成フレームワーク
- Authors: Dutao Zhang, Sergey Kovalchuk, YuLong He,
- Abstract要約: コントラスト学習と条件デコーディングを組み合わせた2段階の学習フレームワークを提案する。
これは、スタイル誘導コード生成のためのコントラストアライメントと条件付きデコーディングを組み合わせた最初のアプローチの1つである。
- 参考スコア(独自算出の注目度): 1.433758865948252
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Controllable code generation, the ability to synthesize code that follows a specified style while maintaining functionality, remains a challenging task. We propose a two-stage training framework combining contrastive learning and conditional decoding to enable flexible style control. The first stage aligns code style representations with semantic and structural features. In the second stage, we fine-tune a language model (e.g., Flan-T5) conditioned on the learned style vector to guide generation. Our method supports style interpolation and user personalization via lightweight mixing. Compared to prior work, our unified framework offers improved stylistic control without sacrificing code correctness. This is among the first approaches to combine contrastive alignment with conditional decoding for style-guided code generation.
- Abstract(参考訳): 機能を維持しながら特定のスタイルに従うコードを合成するコントロール可能なコード生成は、依然として難しい課題である。
コントラスト学習と条件デコーディングを組み合わせた2段階の学習フレームワークを提案する。
第1ステージでは、コードスタイルの表現とセマンティクスと構造的特徴を一致させる。
第2段階では、学習スタイルベクトルに条件付き言語モデル(例えば、Flan-T5)を微調整し、生成をガイドする。
本手法は,軽量ミキシングによるスタイル補間とユーザパーソナライズを支援する。
以前の作業と比較して、我々の統合されたフレームワークは、コードの正確性を犠牲にすることなく、スタイリスティックな制御を改善する。
これは、スタイル誘導コード生成のためのコントラストアライメントと条件付きデコーディングを組み合わせた最初のアプローチの1つである。
関連論文リスト
- StyleShot: A Snapshot on Any Style [20.41380860802149]
テスト時間チューニングを伴わない汎用的なスタイル転送には,優れたスタイル表現が不可欠であることを示す。
スタイル認識型エンコーダと、StyleGalleryと呼ばれるよく編成されたスタイルデータセットを構築することで、これを実現する。
当社のアプローチであるStyleShotは,テストタイムチューニングを必要とせずに,さまざまなスタイルを模倣する上で,シンプルかつ効果的なものです。
論文 参考訳(メタデータ) (2024-07-01T16:05:18Z) - InstantStyle: Free Lunch towards Style-Preserving in Text-to-Image Generation [5.364489068722223]
スタイルの概念は本質的に過小評価されており、色、材料、雰囲気、デザイン、構造といった様々な要素を含んでいる。
インバージョンベースの手法はスタイルの劣化を招きやすいため、細かな細部が失われることが多い。
アダプタベースのアプローチでは、スタイル強度とテキストの制御性のバランスをとるために、参照画像ごとに微妙な重み調整が必要となることが多い。
論文 参考訳(メタデータ) (2024-04-03T13:34:09Z) - StyleCrafter: Enhancing Stylized Text-to-Video Generation with Style Adapter [78.75422651890776]
StyleCrafterは、トレーニング済みのT2Vモデルをスタイルコントロールアダプタで拡張する汎用的な方法である。
コンテンツスタイルのゆがみを促進するため,テキストプロンプトからスタイル記述を取り除き,参照画像のみからスタイル情報を抽出する。
StyleCrafterは、テキストの内容と一致し、参照画像のスタイルに似た高品質なスタイリングビデオを効率よく生成する。
論文 参考訳(メタデータ) (2023-12-01T03:53:21Z) - StyleAdapter: A Unified Stylized Image Generation Model [97.24936247688824]
StyleAdapterは、様々なスタイリング画像を生成することができる統一型スタイリング画像生成モデルである。
T2I-adapter や ControlNet のような既存の制御可能な合成手法と統合することができる。
論文 参考訳(メタデータ) (2023-09-04T19:16:46Z) - Exploring Code Style Transfer with Neural Networks [3.5137554842563863]
スタイル属性、特にPythonについて定義します。
スタイルの定義に加えて、トレーニング済みのコード言語モデルでコードスタイルに関する情報をキャプチャする機能についても検討する。
論文 参考訳(メタデータ) (2022-09-13T19:34:42Z) - CodeRetriever: Unimodal and Bimodal Contrastive Learning [128.06072658302165]
関数レベルのコードセマンティック表現を訓練するために,一様および二様のコントラスト学習を組み合わせたCodeRetrieverモデルを提案する。
ノンモーダルなコントラスト学習のために、文書と関数名に基づいてポジティブなコードペアを構築するためのセマンティックガイド付き手法を設計する。
バイモーダルなコントラスト学習では、コードのドキュメンテーションとインラインコメントを活用して、テキストコードペアを構築します。
論文 参考訳(メタデータ) (2022-01-26T10:54:30Z) - Fine-grained style control in Transformer-based Text-to-speech Synthesis [78.92428622630861]
本稿では,Transformer-based text-to-speech synthesis (TransformerTTS) におけるきめ細かいスタイル制御を実現する新しいアーキテクチャを提案する。
参照音声から局所的スタイルトークン(LST)の時系列を抽出することにより、発話スタイルをモデル化する。
実験により, きめ細かいスタイル制御では, 自然性, 知能性, スタイル伝達性が向上することが示された。
論文 参考訳(メタデータ) (2021-10-12T19:50:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。