論文の概要: LLMs are Meaning-Typed Code Constructs
- arxiv url: http://arxiv.org/abs/2405.08965v1
- Date: Tue, 14 May 2024 21:12:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-16 14:55:25.143749
- Title: LLMs are Meaning-Typed Code Constructs
- Title(参考訳): LLMは意味型コード構造である
- Authors: Jason Mars, Yiping Kang, Jayanaka Dantanarayana, Chandra Irugalbandara, Kugesan Sivasothynathan, Lingjia Tang,
- Abstract要約: 本稿では,ニューロプログラミングとシンボリックプログラミングのギャップを埋めるための新しい抽象概念を紹介する。
我々は GenAI モデル,特に LLM が意味型包括コード構造として解釈されるべきであると考えている。
我々は,この翻訳を開発者から抽象化するランタイム機能であるAutomatic Meaning-Type Transformation (A-MTT)を提案する。
- 参考スコア(独自算出の注目度): 3.8704987495086542
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Programming with Generative AI (GenAI) models is a type of Neurosymbolic programming and has seen tremendous adoption across many domains. However, leveraging GenAI models in code today can be complex, counter-intuitive and often require specialized frameworks, leading to increased complexity. This is because it is currently unclear as to the right abstractions through which we should marry GenAI models with the nature of traditional programming code constructs. In this paper, we introduce a set of novel abstractions to help bridge the gap between Neuro- and symbolic programming. We introduce Meaning, a new specialized type that represents the underlying semantic value of traditional types (e.g., string). We make the case that GenAI models, LLMs in particular, should be reasoned as a meaning-type wrapped code construct at the language level. We formulate the problem of translation between meaning and traditional types and propose Automatic Meaning-Type Transformation (A-MTT), a runtime feature that abstracts this translation away from the developers by automatically converting between M eaning and types at the interface of LLM invocation. Leveraging this new set of code constructs and OTT, we demonstrate example implementation of neurosymbolic programs that seamlessly utilizes LLMs to solve problems in place of potentially complex traditional programming logic.
- Abstract(参考訳): ジェネレーティブAI(GenAI)モデルによるプログラミングは、ニューロシンボリックプログラミングの一種であり、多くのドメインで非常に採用されている。
しかし、今日のコードでのGenAIモデルの利用は複雑で、直感に反し、しばしば特別なフレームワークを必要とするため、複雑さが増す。
これは、現在、GenAIモデルと従来のプログラミングコード構造の性質を結合する適切な抽象化について不明確なためです。
本稿では,ニューロプログラミングとシンボリックプログラミングのギャップを埋めるために,新しい抽象概念のセットを紹介する。
従来の型(例えば文字列)の基本的な意味値を表す新しい特殊型であるMeaningを紹介します。
我々は、特にLLMであるGenAIモデルが、言語レベルで意味型ラップコード構造として解釈されるべきであると考えている。
我々は,意味と伝統的な型間の翻訳の問題を定式化し,この変換を開発者から抽象化するランタイム機能であるAutomatic Meaning-Type Transformation (A-MTT)を提案する。
この新たなコード構造とOTTを活用することで、LLMをシームレスに利用し、潜在的に複雑な従来のプログラミングロジックの代わりに問題を解決するニューロシンボリックプログラムの実装例を実演する。
関連論文リスト
- Creating an LLM-based AI-agent: A high-level methodology towards enhancing LLMs with APIs [0.0]
大規模言語モデル(LLM)は、工学と科学の様々な側面に革命をもたらした。
この論文は総合的なガイドとして機能し、アプリケーションプログラミングインタフェース(API)を活用する能力を備えたLLMの強化のための多面的アプローチを解明する。
本稿では,Hugging Faceコミュニティの小さなモデルを用いて,携帯端末の機能を活用したオンデバイスアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-12-17T14:14:04Z) - Meaning Typed Prompting: A Technique for Efficient, Reliable Structured Output Generation [0.0]
本稿では,効率的な構造化出力生成技術であるMeaning Typed Prompting (MTP)を紹介する。
表現力のある型定義を利用することで、MTPは出力の明確さを高め、複雑な抽象化への依存を減らす。
本稿では,MPPを実装したフレームワークであるSemantixについて紹介する。
論文 参考訳(メタデータ) (2024-10-22T20:43:50Z) - Synthetic Programming Elicitation for Text-to-Code in Very Low-Resource Programming and Formal Languages [21.18996339478024]
SPEAC(emphsynthetic programming elicitation and compilation)を紹介する。
SPEACは、より頻繁に、意味的正しさを犠牲にすることなく、構文的に正しいプログラムを生成する。
UCLID5形式検証言語のケーススタディにおいて,SPEACの性能を実証的に評価した。
論文 参考訳(メタデータ) (2024-06-05T22:16:19Z) - A Framework to Model ML Engineering Processes [1.9744907811058787]
機械学習(ML)ベースのシステムの開発は複雑で、多様なスキルセットを持つ複数の学際的なチームが必要である。
現在のプロセスモデリング言語は、そのようなシステムの開発を説明するには適していない。
ドメイン固有言語を中心に構築されたMLベースのソフトウェア開発プロセスのモデリングフレームワークを紹介する。
論文 参考訳(メタデータ) (2024-04-29T09:17:36Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - LLM4EDA: Emerging Progress in Large Language Models for Electronic
Design Automation [74.7163199054881]
大規模言語モデル(LLM)は、文脈理解、論理推論、回答生成においてその能力を実証している。
本稿では,EDA分野におけるLLMの応用に関する系統的研究を行う。
論理合成,物理設計,マルチモーダル特徴抽出,回路のアライメントにLLMを適用することに焦点を当て,今後の研究の方向性を強調した。
論文 参考訳(メタデータ) (2023-12-28T15:09:14Z) - LLMind: Orchestrating AI and IoT with LLM for Complex Task Execution [18.816077341295628]
我々は,IoTデバイス間の効果的なコラボレーションを可能にするタスク指向AIフレームワークであるLLMindを紹介する。
脳の機能的特殊化理論に触発されて、我々のフレームワークはLLMとドメイン固有のAIモジュールを統合する。
複数のドメイン固有のAIモジュールとIoTデバイスのコラボレーションを含む複雑なタスクは、コントロールスクリプトを介して実行される。
論文 参考訳(メタデータ) (2023-12-14T14:57:58Z) - LMRL Gym: Benchmarks for Multi-Turn Reinforcement Learning with Language
Models [56.25156596019168]
本稿では,LMRL-Gymベンチマークを用いて,大規模言語モデル(LLM)のマルチターンRLの評価を行う。
我々のベンチマークは8つの異なる言語タスクで構成されており、複数ラウンドの言語相互作用が必要であり、オープンエンド対話やテキストゲームにおける様々なタスクをカバーする。
論文 参考訳(メタデータ) (2023-11-30T03:59:31Z) - Low-code LLM: Graphical User Interface over Large Language Models [115.08718239772107]
本稿では,人間-LLMインタラクションフレームワークであるLow-code LLMを紹介する。
より制御可能で安定した応答を実現するために、6種類のシンプルなローコードビジュアルプログラミングインタラクションを組み込んでいる。
ユーザフレンドリなインタラクション,制御可能な生成,広い適用性という,低コード LLM の3つの利点を強調した。
論文 参考訳(メタデータ) (2023-04-17T09:27:40Z) - Neuro-Symbolic Causal Language Planning with Commonsense Prompting [67.06667162430118]
言語プランニングは、より単純な低レベルステップに分解することで、複雑な高レベルな目標を実装することを目的としている。
以前の手法では、大規模な言語モデルからそのような能力を得るために、手動の例えか注釈付きプログラムが必要である。
本稿では,LLMからの手続き的知識をコモンセンス・インフュージョン・プロンプトにより引き起こすニューロシンボリック因果言語プランナー(CLAP)を提案する。
論文 参考訳(メタデータ) (2022-06-06T22:09:52Z) - Technology Readiness Levels for AI & ML [79.22051549519989]
機械学習システムの開発は、現代的なツールで容易に実行できるが、プロセスは通常急いで、エンドツーエンドで実行される。
エンジニアリングシステムは、高品質で信頼性の高い結果の開発を効率化するために、明確に定義されたプロセスとテスト標準に従います。
我々は、機械学習の開発と展開のための実証されたシステムエンジニアリングアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-21T17:14:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。