論文の概要: Semantic Laundering in AI Agent Architectures: Why Tool Boundaries Do Not Confer Epistemic Warrant
- arxiv url: http://arxiv.org/abs/2601.08333v1
- Date: Tue, 13 Jan 2026 08:45:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.122045
- Title: Semantic Laundering in AI Agent Architectures: Why Tool Boundaries Do Not Confer Epistemic Warrant
- Title(参考訳): AIエージェントアーキテクチャにおけるセマンティックな洗浄: なぜツール境界がてんかんの警告を含まないのか
- Authors: Oleg Romanchuk, Roman Bondar,
- Abstract要約: 本稿では,セマンティック・ロンダリングがGettier問題をアーキテクチャ的に実現していることを示す。
古典的なゲティエの場合とは異なり、この効果は偶然ではなく、アーキテクチャ上決定され、体系的に再現可能である。
本稿では,この効果の基本的な説明としてワーラント・エロージョン・原則を導入し,スケーリング,モデル改善,LCM-as-judge スキームが,タイプレベルに存在する問題を解消する構造上不可能であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LLM-based agent architectures systematically conflate information transport mechanisms with epistemic justification mechanisms. We formalize this class of architectural failures as semantic laundering: a pattern where propositions with absent or weak warrant are accepted by the system as admissible by crossing architecturally trusted interfaces. We show that semantic laundering constitutes an architectural realization of the Gettier problem: propositions acquire high epistemic status without a connection between their justification and what makes them true. Unlike classical Gettier cases, this effect is not accidental; it is architecturally determined and systematically reproducible. The central result is the Theorem of Inevitable Self-Licensing: under standard architectural assumptions, circular epistemic justification cannot be eliminated. We introduce the Warrant Erosion Principle as the fundamental explanation for this effect and show that scaling, model improvement, and LLM-as-judge schemes are structurally incapable of eliminating a problem that exists at the type level.
- Abstract(参考訳): LLMに基づくエージェントアーキテクチャーは、情報伝達機構とてんかんの正当化機構を体系的に記述する。
アーキテクチャ的に信頼されたインターフェースを渡ることによって、システムによって保証される保証の欠如や保証の弱い命題が受け入れられるパターンである。
本稿では,セマンティック・ロンダリングがゲティエ問題をアーキテクチャ的に実現していることを示す。
古典的なゲティエの場合とは異なり、この効果は偶然ではなく、アーキテクチャ上決定され、体系的に再現可能である。
中心的な結果は、必然的自己ライセンスの理論である: 標準的なアーキテクチャの前提の下では、円形の疫学的正当化は排除できない。
本稿では,この効果の基本的な説明としてワーラント・エロージョン・原則を導入し,スケーリング,モデル改善,LCM-as-judge スキームが,タイプレベルに存在する問題を解消する構造上不可能であることを示す。
関連論文リスト
- The Causal Round Trip: Generating Authentic Counterfactuals by Eliminating Information Loss [4.166536642958902]
構造再構成誤差(SRE)を除去して因果音を発生させる最初の拡散型フレームワークであるBELM-MDCMを紹介する。
我々の研究は、古典的因果論の厳密さと近代的な生成モデルのパワーを調和させる。
論文 参考訳(メタデータ) (2025-11-07T13:37:23Z) - Unvalidated Trust: Cross-Stage Vulnerabilities in Large Language Model Architectures [0.0]
本稿では,商業用言語モデルにおける41の繰り返しリスクパターンのメカニズム中心の分類法を提案する。
これらの動作がアーキテクチャ上の障害モードを構成し、文字列レベルのフィルタリングだけでは不十分である、と我々は主張する。
論文 参考訳(メタデータ) (2025-10-30T09:38:45Z) - Towards Error-Centric Intelligence II: Energy-Structured Causal Models [0.0]
インテリジェンスは説明を構築し、洗練する能力である。
本稿では、単に予測するだけでなく、理解しようとするシステムにおける因果推論のための形式言語を提供する。
論文 参考訳(メタデータ) (2025-10-24T22:19:17Z) - Subject-Event Ontology Without Global Time: Foundations and Execution Semantics [51.56484100374058]
形式化は9つの公理(A1-A9)を含み、実行可能性の正しさを保証する:履歴の単調性(I1)、因果性の非巡回性(I2)、トレーサビリティ(I3)である。
フォーマル化は、分散システム、マイクロサービスアーキテクチャ、DLTプラットフォーム、およびマルチパースペクティビティシナリオ(異なる主題から事実を分解する)に適用できる。
モデルに基づくアプローチ(A9): スキーマによるイベント検証、アクター認可、グローバル時間なしで因果連鎖の自動構築(W3)。
論文 参考訳(メタデータ) (2025-10-20T19:26:44Z) - Cognitive Silicon: An Architectural Blueprint for Post-Industrial Computing Systems [0.0]
本稿では2035年に向けて提案された仮想的なフルスタックアーキテクチャフレームワークについて,認知コンピューティングシステム設計の軌道を探究する。
提案したアーキテクチャは、シンボリックなスキャフォールディング、管理されたメモリ、実行時のモラルコヒーレンス、シリコンとセマンティック層間のアライメント対応実行を統合する。
論文 参考訳(メタデータ) (2025-04-23T11:24:30Z) - Retrieval is Not Enough: Enhancing RAG Reasoning through Test-Time Critique and Optimization [58.390885294401066]
Retrieval-augmented Generation (RAG) は知識基底型大規模言語モデル(LLM)を実現するためのパラダイムとして広く採用されている。
RAGパイプラインは、モデル推論が得られた証拠と整合性を維持するのに失敗することが多く、事実上の矛盾や否定的な結論につながる。
批判駆動アライメント(CDA)に基づく新しい反復的枠組みであるAlignRAGを提案する。
AlignRAG-autoは、動的に洗練を終了し、批判的な反復回数を事前に指定する必要がなくなる自律的な変種である。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z) - Epistemic Closure and the Irreversibility of Misalignment: Modeling Systemic Barriers to Alignment Innovation [0.0]
人工知能の安全な開発を保証する努力は、しばしばコンセンサスに基づくアライメントアプローチに依存する。
本稿では, 認知, 制度, 社会的, インフラ的フィルタを併用してアライメント提案を不可能にする, てんかん閉鎖機能モデルを提案する。
本稿では,AIシステムによる拒絶・非エンゲージメントパターンのメタ分析を含む,理論的および経験的情報源の両方が支持する重み付きクロージャモデルを提案する。
論文 参考訳(メタデータ) (2025-04-02T18:35:15Z) - The Geometry of Refusal in Large Language Models: Concept Cones and Representational Independence [57.57786477441956]
以前の研究は、モデルのアクティベーション空間における1つの拒絶方向が、LCMが要求を拒否するかどうかを決定することを示唆している。
本稿では,表現工学における勾配に基づく新しい手法を提案し,それを用いて拒絶方向を同定する。
LLMの拒絶機構は複雑な空間構造によって制御され、機能的に独立な方向を識別する。
論文 参考訳(メタデータ) (2025-02-24T18:52:59Z) - Hierarchical Invariance for Robust and Interpretable Vision Tasks at Larger Scales [54.78115855552886]
本稿では、畳み込みニューラルネットワーク(CNN)のような階層型アーキテクチャを用いて、オーバーコンプリート不変量を構築する方法を示す。
オーバーコンプリート性により、そのタスクはニューラルアーキテクチャサーチ(NAS)のような方法で適応的に形成される。
大規模で頑健で解釈可能な視覚タスクの場合、階層的不変表現は伝統的なCNNや不変量に対する効果的な代替物とみなすことができる。
論文 参考訳(メタデータ) (2024-02-23T16:50:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。