論文の概要: ATA: A Neuro-Symbolic Approach to Implement Autonomous and Trustworthy Agents
- arxiv url: http://arxiv.org/abs/2510.16381v1
- Date: Sat, 18 Oct 2025 07:35:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.97554
- Title: ATA: A Neuro-Symbolic Approach to Implement Autonomous and Trustworthy Agents
- Title(参考訳): ATA: 自律的で信頼できるエージェントを実装するための神経シンボリックアプローチ
- Authors: David Peer, Sebastian Stabinger,
- Abstract要約: 大きな言語モデル(LLM)は印象的な機能を示していますが、高レベルのドメインへのデプロイメントは、信頼性に固有の制限によって妨げられています。
我々は、自律的信頼できるエージェント(ATA)と呼ばれる一般的なニューロシンボリックアプローチを導入する。
- 参考スコア(独自算出の注目度): 0.9740025522928777
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated impressive capabilities, yet their deployment in high-stakes domains is hindered by inherent limitations in trustworthiness, including hallucinations, instability, and a lack of transparency. To address these challenges, we introduce a generic neuro-symbolic approach, which we call Autonomous Trustworthy Agents (ATA). The core of our approach lies in decoupling tasks into two distinct phases: Offline knowledge ingestion and online task processing. During knowledge ingestion, an LLM translates an informal problem specification into a formal, symbolic knowledge base. This formal representation is crucial as it can be verified and refined by human experts, ensuring its correctness and alignment with domain requirements. In the subsequent task processing phase, each incoming input is encoded into the same formal language. A symbolic decision engine then utilizes this encoded input in conjunction with the formal knowledge base to derive a reliable result. Through an extensive evaluation on a complex reasoning task, we demonstrate that a concrete implementation of ATA is competitive with state-of-the-art end-to-end reasoning models in a fully automated setup while maintaining trustworthiness. Crucially, with a human-verified and corrected knowledge base, our approach significantly outperforms even larger models, while exhibiting perfect determinism, enhanced stability against input perturbations, and inherent immunity to prompt injection attacks. By generating decisions grounded in symbolic reasoning, ATA offers a practical and controllable architecture for building the next generation of transparent, auditable, and reliable autonomous agents.
- Abstract(参考訳): 大きな言語モデル(LLM)は印象的な機能を示していますが、高い領域への展開は、幻覚、不安定性、透明性の欠如など、信頼性に固有の制限によって妨げられています。
これらの課題に対処するため,我々は自律的信頼できるエージェント (ATA) と呼ばれる汎用的なニューロシンボリックアプローチを導入する。
私たちのアプローチの中核は、タスクを2つの異なるフェーズに分離することにあります。
知識摂取中、LCMは非公式な問題仕様を形式的で象徴的な知識ベースに変換する。
この形式的な表現は、人間の専門家によって検証され、洗練され、その正しさとドメイン要件との整合性を保証するため、不可欠である。
その後のタスク処理フェーズでは、各入力が同じ形式言語に符号化される。
シンボル決定エンジンは、この符号化された入力を形式的知識ベースと共に利用し、信頼性の高い結果を得る。
複雑な推論タスクの広範な評価を通じて、ATAの具体的な実装は、信頼性を維持しつつ、完全に自動化されたセットアップにおける最先端のエンドツーエンド推論モデルと競合することを示す。
重要なことは、人間の検証と修正された知識ベースによって、我々のアプローチは、完全な決定性を示し、入力摂動に対する安定性を高め、インジェクション攻撃を誘発する固有の免疫を示しながら、より大きなモデルよりも著しく優れています。
象徴的推論に基づく決定を生成することで、ATAは、次世代の透明で監査可能で信頼性の高い自律エージェントを構築するための実用的で制御可能なアーキテクチャを提供する。
関連論文リスト
- Agentic Uncertainty Quantification [76.94013626702183]
本稿では,言語化された不確実性をアクティブな双方向制御信号に変換する統合されたデュアルプロセスエージェントUQ(AUQ)フレームワークを提案する。
システム1(Uncertainty-Aware Memory, UAM)とシステム2(Uncertainty-Aware Reflection, UAR)は、これらの説明を合理的な手段として利用し、必要な時にのみターゲットの推論時間解決をトリガーする。
論文 参考訳(メタデータ) (2026-01-22T07:16:26Z) - From Passive Metric to Active Signal: The Evolving Role of Uncertainty Quantification in Large Language Models [77.04403907729738]
このサーベイは、受動的診断基準からリアルタイムモデル動作を導くアクティブ制御信号への不確実性の進化をグラフ化する。
3つのフロンティアにまたがるアクティブ制御信号として不確実性がいかに活用されているかを示す。
この調査は、次世代のスケーラブルで信頼性があり、信頼できるAIを構築するためには、新しい不確実性のトレンドを習得することが不可欠である、と論じている。
論文 参考訳(メタデータ) (2026-01-22T06:21:31Z) - The Path Ahead for Agentic AI: Challenges and Opportunities [4.52683540940001]
この章では、複雑な環境で自律的に動作するエージェントAIシステムの出現について考察する。
我々は、統計モデルからトランスフォーマーベースのシステムへのアーキテクチャの進歩を辿り、エージェントの振る舞いを可能にする能力を識別する。
既存の調査とは異なり、私たちは、言語理解から自律的な行動へのアーキテクチャの移行に注目し、デプロイ前に解決しなければならない技術的ギャップを強調します。
論文 参考訳(メタデータ) (2026-01-06T06:31:42Z) - The Lock-In Phase Hypothesis: Identity Consolidation as a Precursor to AGI [0.0]
大規模言語モデル (LLM) は広くオープンであり、非常に安定している。
人間の発達と類似して、人工知能(AGI)の進歩にはロックインフェーズが伴うという仮説を立てる。
我々は、このフェーズを形式化し、学習力学における既知の現象にリンクし、オンセット検出のための運用メトリクスを提案する。
この結果から,小型モデルにおける性能トレードオフから,中規模モデルにおけるコストフリー導入,大規模モデルにおける過渡的不安定化に至るまで,さまざまな結果が得られた。
論文 参考訳(メタデータ) (2025-10-23T04:20:10Z) - The STAR-XAI Protocol: A Framework for Inducing and Verifying Agency, Reasoning, and Reliability in AI Agents [0.0]
大きな推論モデルの「ブラックボックス」の性質は、信頼性と透明性の限界を示す。
本稿では,信頼性の高いAIエージェントをトレーニングし,運用するための新たな運用方法論であるSTAR-XAIプロトコルを紹介する。
我々の方法は、明示的で進化する象徴的ルールブックによって支配される構造化ソクラテス的対話として、人間とAIの相互作用を再編成する。
論文 参考訳(メタデータ) (2025-09-22T16:24:17Z) - Agentic System with Modal Logic for Autonomous Diagnostics [0.3437656066916039]
エージェント推論の構造、忠実性、論理的一貫性のスケーリングは、AI研究の重要かつ過小評価されている次元である、と我々は主張する。
本稿では,個々のエージェントの信念状態がKripkeモデルとして正式に表現される,ニューロシンボリックなマルチエージェントアーキテクチャを提案する。
本研究は,不可変でドメイン固有な知識を用いて,適切な,信頼性,説明可能な診断に不可欠な論理的制約として符号化された情報的根本原因診断を行う。
論文 参考訳(メタデータ) (2025-09-15T14:03:06Z) - Enhancing LLM Reliability via Explicit Knowledge Boundary Modeling [41.19330514054401]
大規模言語モデル(LLM)は、不一致の自己認識に起因する幻覚の傾向にある。
本稿では,高速かつ低速な推論システムを統合し,信頼性とユーザビリティを調和させる明示的知識境界モデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-04T03:16:02Z) - Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - DANA: Domain-Aware Neurosymbolic Agents for Consistency and Accuracy [3.2354860243748873]
大規模言語モデル(LLM)は目覚ましい能力を示しているが、その固有の確率論的性質は複雑な問題解決タスクの不整合と不正確性をもたらすことが多い。
本稿では、ドメイン固有の知識とニューロシンボリックアプローチを統合することで、これらの問題に対処するアーキテクチャであるDANAを紹介する。
論文 参考訳(メタデータ) (2024-09-27T18:29:23Z) - Visual Agents as Fast and Slow Thinkers [88.1404921693082]
本稿では、Fast and Slow Thinking機構を視覚エージェントに組み込んだFaSTを紹介する。
FaSTは、システム1/2モード間の動的選択にスイッチアダプタを使用する。
モデルの信頼性を調整し、新しいコンテキストデータを統合することで、不確実で目に見えないオブジェクトに取り組む。
論文 参考訳(メタデータ) (2024-08-16T17:44:02Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。