論文の概要: AI-Assisted Modeling: DSL-Driven AI Interactions
- arxiv url: http://arxiv.org/abs/2509.05160v1
- Date: Fri, 05 Sep 2025 14:56:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.6251
- Title: AI-Assisted Modeling: DSL-Driven AI Interactions
- Title(参考訳): AI支援モデリング:DSL駆動AIインタラクション
- Authors: Steven Smyth, Daniel Busch, Moez Ben Haj Hmida, Edward A. Lee, Bernhard Steffen,
- Abstract要約: AI支援プログラミングは、ソフトウェア開発のパフォーマンスを大幅に向上させる。
ドメイン固有のモデリング技術を通じて透明性を統合することで、この可能性を高める。
AI生成コードのセマンティクスを正確に表現する、瞬時にグラフィカルな視覚化を提供する。
- 参考スコア(独自算出の注目度): 0.3914676152740142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI-assisted programming greatly increases software development performance. We enhance this potential by integrating transparency through domain-specific modeling techniques and providing instantaneous, graphical visualizations that accurately represent the semantics of AI-generated code. This approach facilitates visual inspection and formal verification, such as model checking. Formal models can be developed using programming, natural language prompts, voice commands, and stage-wise refinement, with immediate feedback after each transformation step. This support can be tailored to specific domains or intended purposes, improving both code generation and subsequent validation processes. To demonstrate the effectiveness of this approach, we have developed a prototype as a Visual Studio Code extension for the Lingua Franca language. This prototype showcases the potential for novel domain-specific modeling practices, offering an advancement in how models are created, visualized, and verified.
- Abstract(参考訳): AI支援プログラミングは、ソフトウェア開発のパフォーマンスを大幅に向上させる。
ドメイン固有のモデリング技術を通じて透明性を統合し、AI生成コードのセマンティクスを正確に表現した、瞬時にグラフィカルな視覚化を提供することにより、この可能性を高める。
このアプローチは、モデル検査のような視覚検査と形式的検証を容易にする。
フォーマルモデルは、プログラミング、自然言語プロンプト、音声コマンド、ステージワイドリファインメントを使用して開発することができる。
このサポートは特定のドメインや意図した目的に合わせて調整でき、コード生成とその後の検証プロセスを改善することができる。
このアプローチの有効性を示すため、Lingua Franca言語用のVisual Studio Code拡張のプロトタイプを開発しました。
このプロトタイプは、新しいドメイン固有のモデリングプラクティスの可能性を示し、モデルの作成、視覚化、検証の方法の進歩を提供する。
関連論文リスト
- ScreenCoder: Advancing Visual-to-Code Generation for Front-End Automation via Modular Multimodal Agents [35.10813247827737]
本稿では,3つの解釈可能な段階でユーザインタフェースからコード生成を行うモジュール型マルチエージェントフレームワークを提案する。
このフレームワークは、エンドツーエンドのブラックボックスメソッドよりも堅牢性、解釈可能性、忠実性を改善する。
提案手法は, レイアウト精度, 構造コヒーレンス, コード正確性において, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2025-07-30T16:41:21Z) - Prompt Disentanglement via Language Guidance and Representation Alignment for Domain Generalization [75.88719716002014]
ドメイン一般化 (Domain Generalization, DG) は、目に見えないターゲットドメインに対して効果的に機能する汎用モデルの開発を目指している。
VFM(Pre-trained Visual Foundation Models)の最近の進歩は、ディープラーニングモデルの一般化能力を向上する大きな可能性を示している。
VFMの制御可能で柔軟な言語プロンプトを活用することで,この問題に対処することを提案する。
論文 参考訳(メタデータ) (2025-07-03T03:52:37Z) - Continual Learning for Generative AI: From LLMs to MLLMs and Beyond [56.29231194002407]
本稿では,主流生成型AIモデルに対する連続学習手法の総合的な調査を行う。
これらのアプローチをアーキテクチャベース、正規化ベース、リプレイベースという3つのパラダイムに分類する。
我々は、トレーニング目標、ベンチマーク、コアバックボーンを含む、異なる生成モデルに対する連続的な学習設定を分析する。
論文 参考訳(メタデータ) (2025-06-16T02:27:25Z) - Targeted control of fast prototyping through domain-specific interface [28.96685079422302]
工業デザイナーは長い間、プロトタイプモデルのターゲット制御を達成するための自然で直感的な方法を模索してきた。
大規模言語モデルはこの分野において有望であることを示しているが、プロトタイプモデルを言語で制御する可能性はまだ部分的には使われていない。
両言語間の媒体として機能するインタフェースアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-06-02T01:56:31Z) - ModelGrow: Continual Text-to-Video Pre-training with Model Expansion and Language Understanding Enhancement [49.513401043490305]
本研究は,テキスト・ビデオ・モデルの連続的な事前学習について考察する。
私たちはこのタスクを、モデルのキャパシティの向上とセマンティック理解の改善という、2つの重要な側面に分割します。
意味理解のために,大規模言語モデルを高度なテキストエンコーダとして活用する手法を提案する。
論文 参考訳(メタデータ) (2024-12-25T18:58:07Z) - Batch-Instructed Gradient for Prompt Evolution:Systematic Prompt Optimization for Enhanced Text-to-Image Synthesis [3.783530340696776]
本研究では,テキスト・画像生成モデルの入力プロンプトを最適化するマルチエージェントフレームワークを提案する。
プロのプロンプトデータベースは、命令修飾子を高精細なプロンプトを生成するためのベンチマークとして機能する。
予備的アブレーション研究は、様々なシステムコンポーネントの有効性を強調し、今後の改善の分野を提案する。
論文 参考訳(メタデータ) (2024-06-13T00:33:29Z) - Text2VP: Generative AI for Visual Programming and Parametric Modeling [6.531561475204309]
本稿では,GPT-4.1から派生した新しい生成AIであるText2VP (Text-to-Visual Programming) GPTを紹介する。
テストでは、関数パラメトリックモデルを生成するText2VPの機能を示すが、より高い複雑性モデルはエラー率を増大させる。
究極的には、Text2VPはデザイナーがGrasshopperのような特殊なプラットフォームで広範なトレーニングをすることなくパラメトリックモデルを簡単に作成および修正できるようにすることを目的としている。
論文 参考訳(メタデータ) (2024-06-09T02:22:20Z) - VL-GPT: A Generative Pre-trained Transformer for Vision and Language
Understanding and Generation [79.02357561313785]
視覚・言語データの同時認識・生成に長けたトランスモデルであるVL-GPT(Vision-Language Generative Pre-Traited Transformer)を導入する。
VL-GPTは、直感的な自己回帰的目的を用いることで、画像とテキストのモダリティを統一した事前学習アプローチを実現する。
論文 参考訳(メタデータ) (2023-12-14T18:59:43Z) - Expedited Training of Visual Conditioned Language Generation via
Redundancy Reduction [61.16125290912494]
$textEVL_textGen$は、視覚条件付き言語生成モデルの事前トレーニング用に設計されたフレームワークである。
提案手法は,視覚言語モデルの学習を5倍に加速させるが,全体的な性能に顕著な影響を与えないことを示す。
論文 参考訳(メタデータ) (2023-10-05T03:40:06Z) - StableLLaVA: Enhanced Visual Instruction Tuning with Synthesized
Image-Dialogue Data [129.92449761766025]
本稿では,視覚的インストラクションチューニングのための画像と対話を同期的に合成する新しいデータ収集手法を提案する。
このアプローチは生成モデルのパワーを活用し、ChatGPTとテキスト・ツー・イメージ生成モデルの能力とを結合する。
本研究は,各種データセットを対象とした総合的な実験を含む。
論文 参考訳(メタデータ) (2023-08-20T12:43:52Z) - A Unified Knowledge Graph Augmentation Service for Boosting
Domain-specific NLP Tasks [10.28161912127425]
本稿では,ドメイン知識グラフを用いたタスク固有のトレーニング手順を強化するために,統合されたドメイン言語モデル開発サービスであるKnowledgeDAを提案する。
我々は、医療とソフトウェア開発という2つの分野の言語モデルを学ぶために、KnowledgeDAのプロトタイプを実装します。
論文 参考訳(メタデータ) (2022-12-10T09:18:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。