論文の概要: ATA: A Neuro-Symbolic Approach to Implement Autonomous and Trustworthy Agents
- arxiv url: http://arxiv.org/abs/2510.16381v1
- Date: Sat, 18 Oct 2025 07:35:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.97554
- Title: ATA: A Neuro-Symbolic Approach to Implement Autonomous and Trustworthy Agents
- Title(参考訳): ATA: 自律的で信頼できるエージェントを実装するための神経シンボリックアプローチ
- Authors: David Peer, Sebastian Stabinger,
- Abstract要約: 大きな言語モデル(LLM)は印象的な機能を示していますが、高レベルのドメインへのデプロイメントは、信頼性に固有の制限によって妨げられています。
我々は、自律的信頼できるエージェント(ATA)と呼ばれる一般的なニューロシンボリックアプローチを導入する。
- 参考スコア(独自算出の注目度): 0.9740025522928777
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated impressive capabilities, yet their deployment in high-stakes domains is hindered by inherent limitations in trustworthiness, including hallucinations, instability, and a lack of transparency. To address these challenges, we introduce a generic neuro-symbolic approach, which we call Autonomous Trustworthy Agents (ATA). The core of our approach lies in decoupling tasks into two distinct phases: Offline knowledge ingestion and online task processing. During knowledge ingestion, an LLM translates an informal problem specification into a formal, symbolic knowledge base. This formal representation is crucial as it can be verified and refined by human experts, ensuring its correctness and alignment with domain requirements. In the subsequent task processing phase, each incoming input is encoded into the same formal language. A symbolic decision engine then utilizes this encoded input in conjunction with the formal knowledge base to derive a reliable result. Through an extensive evaluation on a complex reasoning task, we demonstrate that a concrete implementation of ATA is competitive with state-of-the-art end-to-end reasoning models in a fully automated setup while maintaining trustworthiness. Crucially, with a human-verified and corrected knowledge base, our approach significantly outperforms even larger models, while exhibiting perfect determinism, enhanced stability against input perturbations, and inherent immunity to prompt injection attacks. By generating decisions grounded in symbolic reasoning, ATA offers a practical and controllable architecture for building the next generation of transparent, auditable, and reliable autonomous agents.
- Abstract(参考訳): 大きな言語モデル(LLM)は印象的な機能を示していますが、高い領域への展開は、幻覚、不安定性、透明性の欠如など、信頼性に固有の制限によって妨げられています。
これらの課題に対処するため,我々は自律的信頼できるエージェント (ATA) と呼ばれる汎用的なニューロシンボリックアプローチを導入する。
私たちのアプローチの中核は、タスクを2つの異なるフェーズに分離することにあります。
知識摂取中、LCMは非公式な問題仕様を形式的で象徴的な知識ベースに変換する。
この形式的な表現は、人間の専門家によって検証され、洗練され、その正しさとドメイン要件との整合性を保証するため、不可欠である。
その後のタスク処理フェーズでは、各入力が同じ形式言語に符号化される。
シンボル決定エンジンは、この符号化された入力を形式的知識ベースと共に利用し、信頼性の高い結果を得る。
複雑な推論タスクの広範な評価を通じて、ATAの具体的な実装は、信頼性を維持しつつ、完全に自動化されたセットアップにおける最先端のエンドツーエンド推論モデルと競合することを示す。
重要なことは、人間の検証と修正された知識ベースによって、我々のアプローチは、完全な決定性を示し、入力摂動に対する安定性を高め、インジェクション攻撃を誘発する固有の免疫を示しながら、より大きなモデルよりも著しく優れています。
象徴的推論に基づく決定を生成することで、ATAは、次世代の透明で監査可能で信頼性の高い自律エージェントを構築するための実用的で制御可能なアーキテクチャを提供する。
関連論文リスト
- Agentic System with Modal Logic for Autonomous Diagnostics [0.3437656066916039]
エージェント推論の構造、忠実性、論理的一貫性のスケーリングは、AI研究の重要かつ過小評価されている次元である、と我々は主張する。
本稿では,個々のエージェントの信念状態がKripkeモデルとして正式に表現される,ニューロシンボリックなマルチエージェントアーキテクチャを提案する。
本研究は,不可変でドメイン固有な知識を用いて,適切な,信頼性,説明可能な診断に不可欠な論理的制約として符号化された情報的根本原因診断を行う。
論文 参考訳(メタデータ) (2025-09-15T14:03:06Z) - Enhancing LLM Reliability via Explicit Knowledge Boundary Modeling [41.19330514054401]
大規模言語モデル(LLM)は、不一致の自己認識に起因する幻覚の傾向にある。
本稿では,高速かつ低速な推論システムを統合し,信頼性とユーザビリティを調和させる明示的知識境界モデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-04T03:16:02Z) - Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - DANA: Domain-Aware Neurosymbolic Agents for Consistency and Accuracy [3.2354860243748873]
大規模言語モデル(LLM)は目覚ましい能力を示しているが、その固有の確率論的性質は複雑な問題解決タスクの不整合と不正確性をもたらすことが多い。
本稿では、ドメイン固有の知識とニューロシンボリックアプローチを統合することで、これらの問題に対処するアーキテクチャであるDANAを紹介する。
論文 参考訳(メタデータ) (2024-09-27T18:29:23Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。