論文の概要: The STAR-XAI Protocol: An Interactive Framework for Inducing Second-Order Agency in AI Agents
- arxiv url: http://arxiv.org/abs/2509.17978v1
- Date: Mon, 22 Sep 2025 16:24:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.498371
- Title: The STAR-XAI Protocol: An Interactive Framework for Inducing Second-Order Agency in AI Agents
- Title(参考訳): STAR-XAIプロトコル:AIエージェントに第2次エージェントを誘導するためのインタラクティブフレームワーク
- Authors: Antoni Guasch, Maria Isabel Valdez,
- Abstract要約: 我々は、eXplainable Artificial IntelligenceのためのSTAR-XAIプロトコル(Socratic, Transparent, Agentic, Reasoning)を紹介する。
我々の方法は、明示的で進化するルールブックであるCTP(Consciousness Transfer Package)によって支配される、構造化されたソクラテス的対話として、人間とAIの相互作用を再構築する。
複雑な戦略ゲーム"Caps i Caps"における25-moveのケーススタディを通じて,本手法の有効性を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current Large Reasoning Models (LRMs) exhibit significant limitations in reliability and transparency, often showing a collapse in reasoning capabilities when faced with high-complexity, long-horizon tasks. This "illusion of thinking" is frequently an artifact of non-agentic, black-box evaluation paradigms that fail to cultivate robust problem-solving processes. In response, we introduce The STAR-XAI Protocol (Socratic, Transparent, Agentic, Reasoning - for eXplainable Artificial Intelligence), a novel methodology for training and operating verifiably reliable AI agents. Our method reframes the human-AI interaction as a structured, Socratic dialogue, governed by an explicit and evolving rulebook, the Consciousness Transfer Package (CTP). Through an interactive Gameplay Cycle that enforces ante-hoc strategic justification and a state-locking Checksum that prevents error accumulation, the protocol transforms a powerful but opaque LRM into a disciplined "Clear Box" agent. We demonstrate the efficacy of this method through an exhaustive 25-move case study in the complex strategic game "Caps i Caps". The agent not only solved the high-complexity puzzle but also demonstrated Second-Order Agency, identifying flaws in its own supervisor-approved plans and adapting its core integrity protocols mid-task. The STAR-XAI Protocol offers a practical pathway to creating AI agents that are not just high-performing, but also transparent, auditable, and trustworthy by design.
- Abstract(参考訳): 現在のLRM(Large Reasoning Models)は信頼性と透明性に重大な制限があり、しばしば複雑で長期のタスクに直面した場合の推論能力の崩壊を示す。
この「思考のイリュージョン」は、しばしば、堅牢な問題解決プロセスの育成に失敗する非エージェント的でブラックボックス評価パラダイムの成果物である。
そこで我々は,信頼性の高いAIエージェントをトレーニングし,運用するための新しい手法であるSTAR-XAIプロトコル(Socratic, Transparent, Agentic, Reasoning - for eXplainable Artificial Intelligence)を紹介した。
提案手法は,CTP(Consciousness Transfer Package)という明示的かつ進化的なルールブックによって管理される,構造化されたソクラティック対話として,人間とAIのインタラクションを再構築する。
アンテホックな戦略的正当化を強制するインタラクティブなゲームプレイサイクルと、エラーの蓄積を防ぐ状態ロックチェックサムを通じて、このプロトコルは強力だが不透明なLEMを規律付き「クリアボックス」エージェントに変換する。
本稿では,複雑な戦略ゲーム"Caps i Caps"において,25モーブのケーススタディを通じて本手法の有効性を実証する。
エージェントは、高複雑さのパズルを解決しただけでなく、第2次エージェンシー(Second-Order Agency)を証明し、上司が承認した計画の欠陥を特定し、中途半端にコアの整合性プロトコルを適用した。
STAR-XAIプロトコルは、AIエージェントを作成するための実践的な経路を提供する。
関連論文リスト
- Co-Investigator AI: The Rise of Agentic AI for Smarter, Trustworthy AML Compliance Narratives [2.7295959384567356]
Co-Investigator AIは、SAR(Suspicious Activity Reports)の作成に最適化されたエージェントフレームワークであり、従来の方法よりも大幅に高速で精度が高い。
我々は、SARの草案作成を効率化し、物語を規制上の期待と一致させ、コンプライアンスチームが高次の分析作業に集中できるようにする能力を示します。
論文 参考訳(メタデータ) (2025-09-10T08:16:04Z) - The Collaboration Paradox: Why Generative AI Requires Both Strategic Intelligence and Operational Stability in Supply Chain Management [0.0]
経済環境における自律的、AI駆動エージェントの台頭は、その突発的な戦略行動に関する批判的な疑問を提起する。
本稿では,複数エケロン系サプライチェーンの協調的文脈におけるこれらのダイナミクスについて検討する。
私たちの中心的な発見は、"コラボレーションパラドックス"(colaboration paradox)です。これは、理論上優れた協調AIエージェントが非AIベースラインよりもさらにパフォーマンスが劣る、新しい、破滅的な障害モードです。
論文 参考訳(メタデータ) (2025-08-19T15:31:23Z) - A Novel Zero-Trust Identity Framework for Agentic AI: Decentralized Authentication and Fine-Grained Access Control [7.228060525494563]
本稿では,Agentic AI IAMフレームワークの提案について述べる。
リッチで検証可能なエージェント識別子(ID)に基づく包括的フレームワークを提案する。
また、Zero-Knowledge Proofs(ZKPs)によって、プライバシ保護属性の開示と検証可能なポリシーコンプライアンスを実現する方法について検討する。
論文 参考訳(メタデータ) (2025-05-25T20:21:55Z) - Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - SOPBench: Evaluating Language Agents at Following Standard Operating Procedures and Constraints [59.645885492637845]
SOPBenchは、各サービス固有のSOPコードプログラムを実行可能な関数の有向グラフに変換する評価パイプラインである。
提案手法では,各サービス固有のSOPコードプログラムを実行可能関数の有向グラフに変換し,自然言語SOP記述に基づいてこれらの関数を呼び出しなければならない。
我々は18の先行モデルを評価し、上位モデルでさえタスクが困難であることを示す。
論文 参考訳(メタデータ) (2025-03-11T17:53:02Z) - Textualized Agent-Style Reasoning for Complex Tasks by Multiple Round LLM Generation [49.27250832754313]
我々は、llmベースの自律エージェントフレームワークであるAgentCOTを紹介する。
それぞれのステップで、AgentCOTはアクションを選択し、それを実行して、証拠を裏付ける中間結果を得る。
エージェントCOTの性能を高めるための2つの新しい戦略を導入する。
論文 参考訳(メタデータ) (2024-09-19T02:20:06Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - Formalizing the Problem of Side Effect Regularization [81.97441214404247]
本稿では,補助ゲームフレームワークを用いたサイドエフェクト正規化のための公式な基準を提案する。
これらのゲームでは、エージェントは部分的に観測可能なマルコフ決定プロセスを解決する。
このPOMDPは、エージェントが将来的なタスクをこなす能力と、プロキシ報酬を交換することで解決されることを示す。
論文 参考訳(メタデータ) (2022-06-23T16:36:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。