論文の概要: Meaning-Typed Programming: Language Abstraction and Runtime for Model-Integrated Applications
- arxiv url: http://arxiv.org/abs/2405.08965v4
- Date: Wed, 04 Jun 2025 00:51:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 16:24:48.710177
- Title: Meaning-Typed Programming: Language Abstraction and Runtime for Model-Integrated Applications
- Title(参考訳): 意味型プログラミング: 言語抽象化とモデル統合アプリケーション実行
- Authors: Jayanaka L. Dantanarayana, Yiping Kang, Kugesan Sivasothynathan, Christopher Clarke, Baichuan Li, Savini Kashmira, Krisztian Flautner, Lingjia Tang, Jason Mars,
- Abstract要約: 本稿では,大規模言語モデル(LLM)統合を直感的な言語レベルで抽象化する新しいパラダイムである,意味型プログラミング(MTP)モデルを提案する。
我々はPythonのスーパーセット言語であるJacにMPPを実装し、MPPが精度と効率を保ちながら、コーディングの複雑さを著しく低減することを発見した。
GSM8kデータセットからの数学的な問題に対して、MPPは90%近い精度で到達し、13ベンチマーク中10ベンチマークでトークンの使用量を削減している。
- 参考スコア(独自算出の注目度): 8.007302441327214
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Software development is shifting from traditional logical programming to model-integrated applications that leverage generative AI and large language models (LLMs) during runtime. However, integrating LLMs remains complex, requiring developers to manually craft prompts and process outputs. Existing tools attempt to assist with prompt engineering, but often introduce additional complexity. This paper presents Meaning-Typed Programming (MTP) model, a novel paradigm that abstracts LLM integration through intuitive language-level constructs. By leveraging the inherent semantic richness of code, MTP automates prompt generation and response handling without additional developer effort. We introduce the by operator for seamless LLM invocation, MT-IR, a meaning-based intermediate representation for semantic extraction, and MT-Runtime, an automated system for managing LLM interactions. We implement MTP in Jac, a Python superset language and find that MTP significantly reduces coding complexity while maintaining accuracy and efficiency. Our evaluation across diverse benchmarks and user studies demonstrates that MTP outperforms existing frameworks such as DSPy and LMQL by reducing lines of code by factors of 2.3-7.5X and 1.3-10.7X respectively. For math problems from the GSM8k dataset, MTP achieves accuracy rates approaching 90%, while reducing token usage in 10 out of 13 benchmarks. This leads to cost savings up to 4.5X and runtime speedups as high as 4.75X. Additionally, MTP demonstrates resilience even when 50% of naming conventions are suboptimal, establishing it as a practical, efficient solution for streamlining model-integrated application development.
- Abstract(参考訳): ソフトウェア開発は、実行中に生成AIと大規模言語モデル(LLM)を活用する、従来の論理プログラミングからモデル統合アプリケーションへと移行している。
しかし、LSMの統合は依然として複雑であり、開発者は手動でプロンプトを作成し、出力を処理する必要がある。
既存のツールは、迅速なエンジニアリングの支援を試みるが、しばしば追加の複雑さを導入する。
本稿では,LLM統合を直感的な言語レベルで抽象化する新しいパラダイムであるMeaning-Typed Programming(MTP)モデルを提案する。
コード固有のセマンティックリッチネスを活用することで、MTPは、追加の開発者の努力なしに、プロンプト生成とレスポンスハンドリングを自動化する。
本稿では、シームレスなLLM呼び出しのための by演算子、意味的抽出のための意味に基づく中間表現であるMT-IR、LLMインタラクションを管理する自動化システムであるMT-Runtimeを紹介する。
我々はPythonのスーパーセット言語であるJacにMPPを実装し、MPPが精度と効率を保ちながら、コーディングの複雑さを著しく低減することを発見した。
多様なベンチマークとユーザスタディによる評価では、MPPはDSPyやLMQLといった既存のフレームワークよりも2.3-7.5Xと1.3-10.7Xでコード行数を削減している。
GSM8kデータセットからの数学的な問題に対して、MPPは90%近い精度で到達し、13ベンチマーク中10ベンチマークでトークンの使用量を削減している。
これによりコストは4.5倍に削減され、ランタイムのスピードアップは4.75倍になる。
さらに、MPPは命名規則の50%が最適以下であってもレジリエンスを示し、モデル統合アプリケーション開発を合理化するための実用的で効率的なソリューションとして確立している。
関連論文リスト
- AutoIOT: LLM-Driven Automated Natural Language Programming for AIoT Applications [16.47929288038498]
大規模言語モデル(LLM)は私たちの生活を大きく変え、AIとのインタラクションに革命をもたらし、AIの使用障壁を低くしています。
本稿では,AIoTアプリケーション用の自動プログラム生成装置であるAutoIOTを紹介する。
論文 参考訳(メタデータ) (2025-03-07T11:40:52Z) - Promptware Engineering: Software Engineering for LLM Prompt Development [22.788377588087894]
大規模言語モデル(LLM)は、ソフトウェアアプリケーションに統合され、プロンプトが主要な'プログラミング'インターフェースとして機能する。
その結果,新たなソフトウェアパラダイムであるプロンプトウェアが出現し,自然言語のプロンプトを使ってLLMと対話する。
フォーマルなプログラミング言語や決定論的ランタイム環境に依存する従来のソフトウェアとは異なり、プロンプトウェアはあいまいで非構造的で文脈に依存した自然言語に基づいている。
論文 参考訳(メタデータ) (2025-03-04T08:43:16Z) - Creating an LLM-based AI-agent: A high-level methodology towards enhancing LLMs with APIs [0.0]
大規模言語モデル(LLM)は、工学と科学の様々な側面に革命をもたらした。
この論文は総合的なガイドとして機能し、アプリケーションプログラミングインタフェース(API)を活用する能力を備えたLLMの強化のための多面的アプローチを解明する。
本稿では,Hugging Faceコミュニティの小さなモデルを用いて,携帯端末の機能を活用したオンデバイスアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-12-17T14:14:04Z) - Interactive and Expressive Code-Augmented Planning with Large Language Models [62.799579304821826]
大きな言語モデル(LLM)は、常識的推論と対話的な意思決定において強力な能力を示す。
近年,制御フローなどのコード・アジャセント技術を用いてLCM出力を構造化し,計画性能を向上させる技術が提案されている。
完全コード表現で動的なLEM計画手法であるREPL-Planを提案する。
論文 参考訳(メタデータ) (2024-11-21T04:23:17Z) - Codellm-Devkit: A Framework for Contextualizing Code LLMs with Program Analysis Insights [9.414198519543564]
codellm-devkit (以下, CLDK') は,プログラム解析のプロセスを大幅に単純化したオープンソースライブラリである。
CLDKは開発者に対して直感的でユーザフレンドリなインターフェースを提供しています。
論文 参考訳(メタデータ) (2024-10-16T20:05:59Z) - Optimizing Token Usage on Large Language Model Conversations Using the Design Structure Matrix [49.1574468325115]
大規模言語モデルは、多くの分野やタスクにおいてユビキタスになる。
トークンの使用を減らすこと、短いコンテキストウィンドウ、限られた出力サイズ、トークンの取り込みと生成に関連するコストといった課題を克服する必要がある。
この作業は、エンジニアリング設計の分野からLLM会話最適化にデザイン構造マトリックスをもたらす。
論文 参考訳(メタデータ) (2024-10-01T14:38:36Z) - Large Language Models are Interpretable Learners [53.56735770834617]
本稿では,Large Language Models(LLM)とシンボルプログラムの組み合わせによって,表現性と解釈可能性のギャップを埋めることができることを示す。
自然言語プロンプトを持つ事前訓練されたLLMは、生の入力を自然言語の概念に変換することができる解釈可能な膨大なモジュールセットを提供する。
LSPが学んだ知識は自然言語の記述と記号規則の組み合わせであり、人間(解釈可能)や他のLLMに容易に転送できる。
論文 参考訳(メタデータ) (2024-06-25T02:18:15Z) - Synthetic Programming Elicitation for Text-to-Code in Very Low-Resource Programming and Formal Languages [21.18996339478024]
SPEAC(emphsynthetic programming elicitation and compilation)を紹介する。
SPEACは、より頻繁に、意味的正しさを犠牲にすることなく、構文的に正しいプログラムを生成する。
UCLID5形式検証言語のケーススタディにおいて,SPEACの性能を実証的に評価した。
論文 参考訳(メタデータ) (2024-06-05T22:16:19Z) - A Framework to Model ML Engineering Processes [1.9744907811058787]
機械学習(ML)ベースのシステムの開発は複雑で、多様なスキルセットを持つ複数の学際的なチームが必要である。
現在のプロセスモデリング言語は、そのようなシステムの開発を説明するには適していない。
ドメイン固有言語を中心に構築されたMLベースのソフトウェア開発プロセスのモデリングフレームワークを紹介する。
論文 参考訳(メタデータ) (2024-04-29T09:17:36Z) - An Empirical Study on Usage and Perceptions of LLMs in a Software
Engineering Project [1.433758865948252]
大規模言語モデル(LLM)は人工知能の飛躍であり、人間の言語を用いたタスクに優れる。
本稿では、AI生成したコードを分析し、コード生成に使用するプロンプトと人間の介入レベルを分析し、コードをコードベースに統合する。
ソフトウェア開発の初期段階において,LSMが重要な役割を担っていることが示唆された。
論文 参考訳(メタデータ) (2024-01-29T14:32:32Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - LLM4EDA: Emerging Progress in Large Language Models for Electronic
Design Automation [74.7163199054881]
大規模言語モデル(LLM)は、文脈理解、論理推論、回答生成においてその能力を実証している。
本稿では,EDA分野におけるLLMの応用に関する系統的研究を行う。
論理合成,物理設計,マルチモーダル特徴抽出,回路のアライメントにLLMを適用することに焦点を当て,今後の研究の方向性を強調した。
論文 参考訳(メタデータ) (2023-12-28T15:09:14Z) - LLMind: Orchestrating AI and IoT with LLM for Complex Task Execution [18.816077341295628]
我々は,IoTデバイス間の効果的なコラボレーションを可能にするタスク指向AIフレームワークであるLLMindを紹介する。
脳の機能的特殊化理論に触発されて、我々のフレームワークはLLMとドメイン固有のAIモジュールを統合する。
複数のドメイン固有のAIモジュールとIoTデバイスのコラボレーションを含む複雑なタスクは、コントロールスクリプトを介して実行される。
論文 参考訳(メタデータ) (2023-12-14T14:57:58Z) - LMRL Gym: Benchmarks for Multi-Turn Reinforcement Learning with Language
Models [56.25156596019168]
本稿では,LMRL-Gymベンチマークを用いて,大規模言語モデル(LLM)のマルチターンRLの評価を行う。
我々のベンチマークは8つの異なる言語タスクで構成されており、複数ラウンドの言語相互作用が必要であり、オープンエンド対話やテキストゲームにおける様々なタスクをカバーする。
論文 参考訳(メタデータ) (2023-11-30T03:59:31Z) - When Do Program-of-Thoughts Work for Reasoning? [51.2699797837818]
本稿では,コードと推論能力の相関性を測定するために,複雑性に富んだ推論スコア(CIRS)を提案する。
具体的には、抽象構文木を用いて構造情報をエンコードし、論理的複雑性を計算する。
コードはhttps://github.com/zjunlp/EasyInstructのEasyInstructフレームワークに統合される。
論文 参考訳(メタデータ) (2023-08-29T17:22:39Z) - Low-code LLM: Graphical User Interface over Large Language Models [115.08718239772107]
本稿では,人間-LLMインタラクションフレームワークであるLow-code LLMを紹介する。
より制御可能で安定した応答を実現するために、6種類のシンプルなローコードビジュアルプログラミングインタラクションを組み込んでいる。
ユーザフレンドリなインタラクション,制御可能な生成,広い適用性という,低コード LLM の3つの利点を強調した。
論文 参考訳(メタデータ) (2023-04-17T09:27:40Z) - Neuro-Symbolic Causal Language Planning with Commonsense Prompting [67.06667162430118]
言語プランニングは、より単純な低レベルステップに分解することで、複雑な高レベルな目標を実装することを目的としている。
以前の手法では、大規模な言語モデルからそのような能力を得るために、手動の例えか注釈付きプログラムが必要である。
本稿では,LLMからの手続き的知識をコモンセンス・インフュージョン・プロンプトにより引き起こすニューロシンボリック因果言語プランナー(CLAP)を提案する。
論文 参考訳(メタデータ) (2022-06-06T22:09:52Z) - Technology Readiness Levels for AI & ML [79.22051549519989]
機械学習システムの開発は、現代的なツールで容易に実行できるが、プロセスは通常急いで、エンドツーエンドで実行される。
エンジニアリングシステムは、高品質で信頼性の高い結果の開発を効率化するために、明確に定義されたプロセスとテスト標準に従います。
我々は、機械学習の開発と展開のための実証されたシステムエンジニアリングアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-21T17:14:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。