論文の概要: Are Agents Just Automata? On the Formal Equivalence Between Agentic AI and the Chomsky Hierarchy
- arxiv url: http://arxiv.org/abs/2510.23487v1
- Date: Mon, 27 Oct 2025 16:22:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 17:41:22.024175
- Title: Are Agents Just Automata? On the Formal Equivalence Between Agentic AI and the Chomsky Hierarchy
- Title(参考訳): エージェントはただのオートマタか?エージェントAIとチョムスキー階層の形式的等価性について
- Authors: Roham Koohestani, Ziyou Li, Anton Podkopaev, Maliheh Izadi,
- Abstract要約: 本稿では,現代エージェントAIシステムのアーキテクチャクラスと階層の抽象機械との形式的等価性を確立する。
単純な反射エージェントは有限オートマタと等価であり、階層的なタスク分解エージェントはプッシュダウンオートマタと等価であり、リフレクションに読み取り/書き込み可能なメモリを使用するエージェントはTMと等価であることを示す。
- 参考スコア(独自算出の注目度): 4.245979127318219
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper establishes a formal equivalence between the architectural classes of modern agentic AI systems and the abstract machines of the Chomsky hierarchy. We posit that the memory architecture of an AI agent is the definitive feature determining its computational power and that it directly maps it to a corresponding class of automaton. Specifically, we demonstrate that simple reflex agents are equivalent to Finite Automata, hierarchical task-decomposition agents are equivalent to Pushdown Automata, and agents employing readable/writable memory for reflection are equivalent to TMs. This Automata-Agent Framework provides a principled methodology for right-sizing agent architectures to optimize computational efficiency and cost. More critically, it creates a direct pathway to formal verification, enables the application of mature techniques from automata theory to guarantee agent safety and predictability. By classifying agents, we can formally delineate the boundary between verifiable systems and those whose behavior is fundamentally undecidable. We address the inherent probabilistic nature of LLM-based agents by extending the framework to probabilistic automata that allow quantitative risk analysis. The paper concludes by outlining an agenda for developing static analysis tools and grammars for agentic frameworks.
- Abstract(参考訳): 本稿では,現代エージェントAIシステムのアーキテクチャクラスと,チョムスキー階層の抽象機械との形式的等価性を確立する。
我々は、AIエージェントのメモリアーキテクチャが、その計算能力を決定する決定的な特徴であり、それを対応するオートマトンに直接マッピングする、と仮定する。
具体的には、単純な反射エージェントが有限オートマタと等価であること、階層的なタスク分解エージェントがプッシュダウンオートマタと等価であること、リフレクションに読み取り/書き込み可能なメモリを使用するエージェントがTMと等価であることを実証する。
このAutomata-Agent Frameworkは、計算効率とコストを最適化するために、適切なサイズのエージェントアーキテクチャのための原則化された方法論を提供する。
より重要なことは、形式的検証への直接的な経路を作り、エージェントの安全性と予測可能性を保証するためのオートマトン理論からの成熟した技術の適用を可能にすることである。
エージェントを分類することで、検証可能なシステムと基本的に決定不可能な振る舞いの境界を正式に定義することができる。
定量的リスク分析が可能な確率的オートマトンにフレームワークを拡張することで,LSMをベースとしたエージェントの本質的な確率的特性を克服する。
この論文は、エージェントフレームワークのための静的解析ツールと文法を開発するための議題を概説することで締めくくっている。
関連論文リスト
- The AI Agent Code of Conduct: Automated Guardrail Policy-as-Prompt Synthesis [0.19336815376402716]
本稿では,非構造化設計文書の検証可能なリアルタイムガードレールへの翻訳を自動化する新しいフレームワークを提案する。
『Promptとしての政治』では、自然言語政策の解釈と実施にLarge Language Models(LLMs)を使用している。
さまざまなアプリケーションにまたがってアプローチを検証することで、スケーラブルで監査可能なパイプラインを実証しています。
論文 参考訳(メタデータ) (2025-09-28T17:36:52Z) - AgentGuard: Runtime Verification of AI Agents [1.14219428942199]
AgentGuardは、エージェントAIシステムの実行時検証のためのフレームワークである。
動的確率保証(Dynamic Probabilistic Assurance)と呼ばれる新しいパラダイムを通じて、継続的な量的保証を提供する。
論文 参考訳(メタデータ) (2025-09-28T13:08:50Z) - Is the `Agent' Paradigm a Limiting Framework for Next-Generation Intelligent Systems? [0.0]
エージェント」の概念は人工知能(AI)の研究を深く形作っている。
本稿では,エージェント中心パラダイムの必要性と最適性を再評価する。
論文 参考訳(メタデータ) (2025-09-13T16:11:27Z) - SI-Agent: An Agentic Framework for Feedback-Driven Generation and Tuning of Human-Readable System Instructions for Large Language Models [0.0]
システムインストラクション(SI)は、大規模言語モデル(LLM)の指針となる。
既存の自動化手法は、人間が読めない「ソフトプロンプト」を頻繁に生成し、解釈しやすさを犠牲にする。
本稿では,人間の読みやすいSIを自動生成し,反復的に洗練する新しいエージェントフレームワークであるSI-Agentを紹介する。
論文 参考訳(メタデータ) (2025-07-03T23:44:50Z) - AI Agents vs. Agentic AI: A Conceptual Taxonomy, Applications and Challenges [3.7414278978078204]
このレビューは、AIエージェントとエージェントAIを批判的に区別し、構造化された概念分類、アプリケーションマッピング、そして、異なる設計哲学と能力を明らかにするための機会と課題の分析を提供する。
論文 参考訳(メタデータ) (2025-05-15T16:21:33Z) - Agent-as-a-Judge: Evaluate Agents with Agents [61.33974108405561]
本稿ではエージェント・アズ・ア・ジャッジ(Agent-as-a-Judge)フレームワークを紹介し,エージェント・システムを用いてエージェント・システムの評価を行う。
これはLLM-as-a-Judgeフレームワークの有機的拡張であり、タスク解決プロセス全体の中間フィードバックを可能にするエージェント的特徴を取り入れている。
55のリアルな自動化AI開発タスクのベンチマークであるDevAIを紹介します。
論文 参考訳(メタデータ) (2024-10-14T17:57:02Z) - Gödel Agent: A Self-Referential Agent Framework for Recursive Self-Improvement [112.04307762405669]
G"odel AgentはG"odelマシンにインスパイアされた自己進化型フレームワークである。
G"odel Agentは、パフォーマンス、効率、一般化性において手作業によるエージェントを上回る、継続的な自己改善を実現することができる。
論文 参考訳(メタデータ) (2024-10-06T10:49:40Z) - Automated Machine Learning, Bounded Rationality, and Rational
Metareasoning [62.997667081978825]
有界合理性の観点から、自動機械学習(AutoML)と関連する問題を考察する。
リソース境界の下でアクションを取るには、エージェントがこれらのリソースを最適な方法で利用する方法を反映する必要がある。
論文 参考訳(メタデータ) (2021-09-10T09:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。