論文の概要: The Ann Arbor Architecture for Agent-Oriented Programming
- arxiv url: http://arxiv.org/abs/2502.09903v1
- Date: Fri, 14 Feb 2025 04:21:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 14:48:03.007639
- Title: The Ann Arbor Architecture for Agent-Oriented Programming
- Title(参考訳): エージェント指向プログラミングのためのAnn Arborアーキテクチャ
- Authors: Wei Dong,
- Abstract要約: 我々は、言語モデルはオートマタとして機能し、全てのオートマタと同様に、彼らが受け入れる言語でプログラムされるべきであると主張している。
本稿では,言語モデルのエージェント指向プログラミングのための概念的フレームワークであるAnn Arbor Architectureを紹介する。
エージェントプラットフォームPostlineの設計とエージェントトレーニングの初期実験について報告する。
- 参考スコア(独自算出の注目度): 6.630761601310476
- License:
- Abstract: In this paper, we reexamine prompt engineering for large language models through the lens of automata theory. We argue that language models function as automata and, like all automata, should be programmed in the languages they accept, a unified collection of all natural and formal languages. Therefore, traditional software engineering practices--conditioned on the clear separation of programming languages and natural languages--must be rethought. We introduce the Ann Arbor Architecture, a conceptual framework for agent-oriented programming of language models, as a higher-level abstraction over raw token generation, and provide a new perspective on in-context learning. Based on this framework, we present the design of our agent platform Postline, and report on our initial experiments in agent training.
- Abstract(参考訳): 本稿では,オートマトン理論のレンズを用いて,大規模言語モデルのプロンプトエンジニアリングを再検討する。
言語モデルはオートマタとして機能し、全てのオートマタと同様に、それらが受け入れる言語でプログラムされるべきである、と我々は主張する。
したがって、伝統的なソフトウェアエンジニアリングの実践 -- プログラミング言語と自然言語の明確な分離を前提に -- は再考されなければならない。
我々は,言語モデルのエージェント指向プログラミングのための概念的フレームワークであるAnn Arbor Architectureを,生トークン生成に対する高レベルの抽象化として紹介し,コンテキスト内学習の新しい視点を提供する。
本フレームワークに基づいて,エージェントプラットフォームPostlineの設計とエージェントトレーニングの初期実験について報告する。
関連論文リスト
- Symbolic Learning Enables Self-Evolving Agents [55.625275970720374]
エージェントシンボリックラーニング(エージェントシンボリックラーニング)(エージェントシンボリックラーニング)は、言語エージェントが自分自身で最適化できるための体系的なフレームワークである。
エージェント記号学習は、コネクショナリズム学習における2つの基本的なアルゴリズムを模倣することにより、言語エージェント内のシンボルネットワークを最適化するように設計されている。
我々は、標準ベンチマークと複雑な実世界のタスクの両方で概念実証実験を行う。
論文 参考訳(メタデータ) (2024-06-26T17:59:18Z) - Behavior Trees Enable Structured Programming of Language Model Agents [0.0]
ビヘイビアツリーは、言語モデルと古典的なAIと伝統的なプログラミングを組み合わせるための統一的なフレームワークを提供する、と我々は主張する。
本稿では,行動木を用いたプログラミング言語モデルエージェントのためのPythonライブラリであるDendronを紹介する。
論文 参考訳(メタデータ) (2024-04-11T02:44:13Z) - Formal Aspects of Language Modeling [74.16212987886013]
大規模言語モデルは最も一般的なNLP発明の1つとなっている。
これらのノートは、ETH Z "urich course on large language model" の理論的部分の伴奏である。
論文 参考訳(メタデータ) (2023-11-07T20:21:42Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - Benchmarking Language Models for Code Syntax Understanding [79.11525961219591]
事前学習された言語モデルは、自然言語処理とプログラム理解の両方において素晴らしい性能を示している。
本研究では,プログラムの構文構造を特定するための,最先端の事前訓練モデルの最初の徹底的なベンチマークを行う。
この結果から,既存のプログラミング言語の事前学習手法の限界が指摘され,構文構造をモデル化することの重要性が示唆された。
論文 参考訳(メタデータ) (2022-10-26T04:47:18Z) - Language Models are General-Purpose Interfaces [109.45478241369655]
本稿では,様々な基礎モデルに対する汎用インタフェースとして言語モデルを提案する。
事前訓練されたエンコーダのコレクションは、様々なモダリティ(ビジョンや言語など)を知覚する
インタフェースとモジュールエンコーダを協調的に事前学習するための半因果言語モデリング手法を提案する。
論文 参考訳(メタデータ) (2022-06-13T17:34:22Z) - ANGLEr: A Next-Generation Natural Language Exploratory Framework [0.0]
提案した設計は、ANGLErと呼ばれる新しい自然言語処理フレームワークの実装に使用されている。
提案されたフレームワークの主な部分は,(a)プラグイン可能なDockerベースのアーキテクチャ,(b)汎用データモデル,(c)グラフィカルユーザインターフェースを備えたAPI記述で構成される。
論文 参考訳(メタデータ) (2022-05-10T13:32:13Z) - Pre-Trained Language Models for Interactive Decision-Making [72.77825666035203]
目的と観測を埋め込みのシーケンスとして表現する模倣学習の枠組みを述べる。
このフレームワークは様々な環境にまたがって効果的な一般化を可能にすることを実証する。
新たなゴールや新しいシーンを含むテストタスクでは、言語モデルによる初期化ポリシーはタスク完了率を43.6%改善する。
論文 参考訳(メタデータ) (2022-02-03T18:55:52Z) - Language Models are not Models of Language [0.0]
トランスファーラーニングにより、言語モデリングタスクでトレーニングされた大規模なディープラーニングニューラルネットワークにより、パフォーマンスが大幅に向上した。
深層学習モデルは言語の理論的モデルではないので、言語モデルという用語は誤解を招く。
論文 参考訳(メタデータ) (2021-12-13T22:39:46Z) - Automated Source Code Generation and Auto-completion Using Deep
Learning: Comparing and Discussing Current Language-Model-Related Approaches [0.0]
本稿では、異なるディープラーニングアーキテクチャを比較して、プログラミングコードに基づく言語モデルを作成し、使用する。
それぞれのアプローチのさまざまな長所と短所と、言語モデルを評価したり、実際のプログラミングコンテキストでそれらを適用するためのギャップについて論じる。
論文 参考訳(メタデータ) (2020-09-16T15:17:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。