論文の概要: Belief Filtering for Epistemic Control in Linguistic State Space
- arxiv url: http://arxiv.org/abs/2505.04927v1
- Date: Thu, 08 May 2025 03:52:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.739116
- Title: Belief Filtering for Epistemic Control in Linguistic State Space
- Title(参考訳): 言語状態空間におけるエピステミック制御のための信念フィルタリング
- Authors: Sebastian Dumbrava,
- Abstract要約: 信念フィルタは言語的断片に対する内容認識の操作として機能する。
この研究は、エージェントの内部意味空間における構造化された介入を通じて、AIの安全性と整合性を高める可能性を強調している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We examine belief filtering as a mechanism for the epistemic control of artificial agents, focusing on the regulation of internal cognitive states represented as linguistic expressions. This mechanism is developed within the Semantic Manifold framework, where belief states are dynamic, structured ensembles of natural language fragments. Belief filters act as content-aware operations on these fragments across various cognitive transitions. This paper illustrates how the inherent interpretability and modularity of such a linguistically-grounded cognitive architecture directly enable belief filtering, offering a principled approach to agent regulation. The study highlights the potential for enhancing AI safety and alignment through structured interventions in an agent's internal semantic space and points to new directions for architecturally embedded cognitive governance.
- Abstract(参考訳): 本稿では, 言語表現として表される内的認知状態の制御に着目し, 人工エージェントの認識制御機構としての信念フィルタリングについて検討する。
このメカニズムは、信念状態が動的で構造化された自然言語断片のアンサンブルであるセマンティック・マニフォールド・フレームワーク内で開発されている。
信念フィルターは、これらの断片に対する様々な認知遷移における内容認識の操作として機能する。
本稿では,このような言語的基盤を持つ認知アーキテクチャの固有の解釈可能性とモジュラリティが,信念フィルタリングを直接実現し,エージェント規制に対する原則的アプローチを提供する方法について述べる。
この研究は、エージェントの内部意味空間における構造化された介入を通じてAIの安全性と整合性を高める可能性を強調し、アーキテクチャに埋め込まれた認知ガバナンスのための新しい方向性を指摘する。
関連論文リスト
- Theoretical Foundations for Semantic Cognition in Artificial Intelligence [0.0]
モノグラフは、構造化セマンティックステートとしての信念の形式的モデリングを基礎とした、人工知能のためのモジュラー認知アーキテクチャを提供する。
信念状態は、操作者が同化、抽象化、無効化、メモリ、イントロスペクションを可能にするナビゲート可能な多様体に埋め込まれた言語表現の動的アンサンブルとして定義される。
論文 参考訳(メタデータ) (2025-04-29T23:10:07Z) - The Geometry of Refusal in Large Language Models: Concept Cones and Representational Independence [57.57786477441956]
以前の研究は、モデルのアクティベーション空間における1つの拒絶方向が、LCMが要求を拒否するかどうかを決定することを示唆している。
本稿では,表現工学における勾配に基づく新しい手法を提案し,それを用いて拒絶方向を同定する。
LLMの拒絶機構は複雑な空間構造によって制御され、機能的に独立な方向を識別する。
論文 参考訳(メタデータ) (2025-02-24T18:52:59Z) - Constructive Approach to Bidirectional Influence between Qualia Structure and Language Emergence [5.906966694759679]
本稿では,言語出現と主観的経験の構造の双方向的影響について考察する。
分布意味論を持つ言語の出現は、経験によって形成される内部表現の協調と関連していると仮定する。
論文 参考訳(メタデータ) (2024-09-14T11:03:12Z) - An Encoding of Abstract Dialectical Frameworks into Higher-Order Logic [57.24311218570012]
このアプローチは抽象弁証法フレームワークのコンピュータ支援分析を可能にする。
応用例としては、メタ理論的性質の形式的解析と検証がある。
論文 参考訳(メタデータ) (2023-12-08T09:32:26Z) - Igniting Language Intelligence: The Hitchhiker's Guide From
Chain-of-Thought Reasoning to Language Agents [80.5213198675411]
大規模言語モデル(LLM)は言語知能の分野を劇的に拡張した。
LLMは興味をそそるチェーン・オブ・シークレット(CoT)推論技術を活用し、答えを導き出す途中の中間ステップを定式化しなければならない。
最近の研究は、自律言語エージェントの開発を促進するためにCoT推論手法を拡張している。
論文 参考訳(メタデータ) (2023-11-20T14:30:55Z) - Cognitive Architectures for Language Agents [44.89258267600489]
言語エージェントのための認知アーキテクチャ(CoALA)を提案する。
CoALAはモジュラーメモリコンポーネントを備えた言語エージェント、内部メモリと外部環境と相互作用する構造化されたアクションスペース、アクションを選択するための一般的な意思決定プロセスを記述する。
我々は、CoALAを使用して、振り返りによる調査と、最近の多くの作業の組織化を行い、より有能なエージェントに対する行動可能な方向を前向きに特定します。
論文 参考訳(メタデータ) (2023-09-05T17:56:20Z) - Color Overmodification Emerges from Data-Driven Learning and Pragmatic
Reasoning [53.088796874029974]
話者の指示表現は、実践的な言語使用の性質を照らし出すのに役立つ方法で、コミュニケーションイデアルから逸脱していることを示す。
ニューラルネットワークを学習エージェントとして採用することにより、過度な修正は、頻度の低い、あるいは正常な環境特性に結びつく可能性が高いことを示す。
論文 参考訳(メタデータ) (2022-05-18T18:42:43Z) - Design considerations for a hierarchical semantic compositional
framework for medical natural language understanding [3.7003326903946756]
NLP性能曲線を跳躍する試みとして,人間の認知のメカニズムにインスパイアされた枠組みについて述べる。
セマンティックメモリ、セマンティックコンポジション、セマンティックアクティベーションを含む4つの重要な側面からの洞察について述べる。
本稿では,自由文文を意味の論理的表現に変換するための生成意味モデルと関連する意味モデルの設計について論じる。
論文 参考訳(メタデータ) (2022-04-05T09:04:34Z) - Low-Dimensional Structure in the Space of Language Representations is
Reflected in Brain Responses [62.197912623223964]
言語モデルと翻訳モデルは,単語の埋め込み,構文的・意味的タスク,将来的な単語埋め込みとの間を円滑に介在する低次元構造を示す。
この表現埋め込みは、各特徴空間が、fMRIを用いて記録された自然言語刺激に対する人間の脳反応にどれだけうまく対応しているかを予測することができる。
これは、埋め込みが脳の自然言語表現構造の一部を捉えていることを示唆している。
論文 参考訳(メタデータ) (2021-06-09T22:59:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。