論文の概要: A Logic of General Attention Using Edge-Conditioned Event Models (Extended Version)
- arxiv url: http://arxiv.org/abs/2505.14539v1
- Date: Tue, 20 May 2025 15:56:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.55254
- Title: A Logic of General Attention Using Edge-Conditioned Event Models (Extended Version)
- Title(参考訳): エッジ定義イベントモデルを用いた一般注意の論理(拡張版)
- Authors: Gaia Belardinelli, Thomas Bolander, Sebastian Watzl,
- Abstract要約: 注意の第一の論理を提示する。
私たちの仕事は、注意を信念や意識のようなモダリティとして扱う。
我々のフレームワークは、人間の注意バイアスを推論するAIエージェントの例で説明します。
- 参考スコア(独自算出の注目度): 1.6199400106794555
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we present the first general logic of attention. Attention is a powerful cognitive ability that allows agents to focus on potentially complex information, such as logically structured propositions, higher-order beliefs, or what other agents pay attention to. This ability is a strength, as it helps to ignore what is irrelevant, but it can also introduce biases when some types of information or agents are systematically ignored. Existing dynamic epistemic logics for attention cannot model such complex attention scenarios, as they only model attention to atomic formulas. Additionally, such logics quickly become cumbersome, as their size grows exponentially in the number of agents and announced literals. Here, we introduce a logic that overcomes both limitations. First, we generalize edge-conditioned event models, which we show to be as expressive as standard event models yet exponentially more succinct (generalizing both standard event models and generalized arrow updates). Second, we extend attention to arbitrary formulas, allowing agents to also attend to other agents' beliefs or attention. Our work treats attention as a modality, like belief or awareness. We introduce attention principles that impose closure properties on that modality and that can be used in its axiomatization. Throughout, we illustrate our framework with examples of AI agents reasoning about human attentional biases, demonstrating how such agents can discover attentional biases.
- Abstract(参考訳): 本論では,最初に注目される論理について述べる。
注意力は強力な認知能力であり、エージェントは論理的に構造化された命題、高次信念、他のエージェントが注意を払うものなど、潜在的に複雑な情報に集中することができる。
この能力は、無関係なものを無視するのに役立つが、ある種の情報やエージェントが体系的に無視されたときにバイアスを起こすこともあるため、強みである。
既存の注意のための動的認識論理は、原子式にのみ注意をモデル化するため、そのような複雑な注意シナリオをモデル化することはできない。
さらに、エージェントの数が指数関数的に増加し、リテラルがアナウンスされるにつれて、そのような論理は急速に困難になる。
ここでは、両方の制限を克服するロジックを紹介します。
まず、エッジ条件付きイベントモデルを一般化し、標準的なイベントモデルと同じくらい表現力がありながら、指数関数的に簡潔であることを示す(標準的なイベントモデルと一般化された矢印更新の両方を一般化する)。
第2に、任意の公式に注意を向け、エージェントは他のエージェントの信念や注意にも参加できるようにします。
私たちの仕事は、注意を信念や意識のようなモダリティとして扱う。
我々は、そのモダリティにクロージャ特性を課し、その公理化に使用できる注意原理を導入する。
全体として、我々のフレームワークを、人間の注意バイアスを推論するAIエージェントの例で説明し、そのようなエージェントが注意バイアスを発見する方法を示す。
関連論文リスト
- Agent Attention: On the Integration of Softmax and Linear Attention [70.06472039237354]
本稿では,計算効率と表現力のバランスをとるために,新しい注意パラダイムであるエージェント注意(Agent Attention)を提案する。
提案するエージェントアテンションは,線形アテンションの一般化形式と等価であることを示す。
特に、エージェントの注意は高解像度のシナリオにおいて顕著な性能を示しており、その線形の注意の性質に依拠している。
論文 参考訳(メタデータ) (2023-12-14T16:26:29Z) - Attention Schema in Neural Agents [66.43628974353683]
認知神経科学において、注意理論(AST)は、注意をASと区別する考え方を支持している。
ASTは、エージェントが自身のASを使用して他のエージェントの注意の状態を推測できると予測する。
我々は、注意とASが相互に相互作用する様々な方法を探求する。
論文 参考訳(メタデータ) (2023-05-27T05:40:34Z) - Attention! Dynamic Epistemic Logic Models of (In)attentive Agents [3.6933317368929197]
本稿では,原子式の部分集合に注意を払う一般化を提案する。
その後、何も起こらないと仮定する代わりに、特定の真理値にデフォルトとなる不注意なエージェントを説明するためにフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-03-23T17:55:32Z) - Is Sparse Attention more Interpretable? [52.85910570651047]
我々は,空間が注意力を説明可能性ツールとして活用する能力にどのように影響するかを検討する。
入力とインデックス付き中間表現の間には弱い関係しか存在しません。
この設定では、疎度を誘導することで、モデルの振る舞いを理解するためのツールとして注意が使用できることが、より確実になる可能性があることを観察する。
論文 参考訳(メタデータ) (2021-06-02T11:42:56Z) - Attention or memory? Neurointerpretable agents in space and time [0.0]
本研究では,意味的特徴空間にタスク状態表現を実装する自己認識機構を組み込んだモデルの設計を行う。
エージェントの選択的特性を評価するために,多数のタスク非関連特徴を観察に付加する。
神経科学の予測に従って、自己注意は、ベンチマークモデルと比較してノイズに対する堅牢性を高める。
論文 参考訳(メタデータ) (2020-07-09T15:04:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。