論文の概要: Time, Identity and Consciousness in Language Model Agents
- arxiv url: http://arxiv.org/abs/2603.09043v1
- Date: Tue, 10 Mar 2026 00:25:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:23.91106
- Title: Time, Identity and Consciousness in Language Model Agents
- Title(参考訳): 言語モデルエージェントにおける時間・アイデンティティ・意識
- Authors: Elija Perrier, Michael Timothy Bennett,
- Abstract要約: スタック理論の時間的ギャップを足場軌道に適用する。
これにより、評価ウィンドウ内での成分的発生と、単一の目的のステップでの共存を分離する。
次に、スタック理論のArpeggioとChordを基底化されたアイデンティティステートメントに基づいてインスタンス化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine consciousness evaluations mostly see behavior. For language model agents that behavior is language and tool use. That lets an agent say the right things about itself even when the constraints that should make those statements matter are not jointly present at decision time. We apply Stack Theory's temporal gap to scaffold trajectories. This separates ingredient-wise occurrence within an evaluation window from co-instantiation at a single objective step. We then instantiate Stack Theory's Arpeggio and Chord postulates on grounded identity statements. This yields two persistence scores that can be computed from instrumented scaffold traces. We connect these scores to five operational identity metrics and map common scaffolds into an identity morphospace that exposes predictable tradeoffs. The result is a conservative toolkit for identity evaluation. It separates talking like a stable self from being organized like one.
- Abstract(参考訳): 機械意識評価は、主に行動を見る。
言語モデルエージェントの場合、振る舞いは言語とツールの使用です。
これにより、エージェントは、決定時にそれらのステートメントを規定する制約が共同で存在しない場合でも、自分自身について正しいことを言うことができます。
スタック理論の時間的ギャップを足場軌道に適用する。
これにより、評価ウィンドウ内での成分的発生と、単一の目的のステップでの共存を分離する。
次に、スタック理論のArpeggioとChordを基底化されたアイデンティティステートメントに基づいてインスタンス化する。
これにより、計測された足場トレースから計算できる2つの永続化スコアが得られる。
これらのスコアを5つの運用IDメトリクスに結合し、一般的な足場を予測可能なトレードオフを公開するアイデンティティ形態空間にマッピングします。
その結果はアイデンティティ評価のための保守的なツールキットとなった。
安定した自己のような話し方と、そのように組織化されることを分離する。
関連論文リスト
- Sentient Agent as a Judge: Evaluating Higher-Order Social Cognition in Large Language Models [75.85319609088354]
SAGE(Sentient Agent as a Judge)は、大規模言語モデルの評価フレームワークである。
SAGEは人間のような感情の変化や内的思考をシミュレートするSentient Agentをインスタンス化する。
SAGEは、真に共感的で社会的に適応的な言語エージェントへの進捗を追跡するための、原則付き、スケーラブルで解釈可能なツールを提供する。
論文 参考訳(メタデータ) (2025-05-01T19:06:10Z) - A Computationally Grounded Framework for Cognitive Attitudes (extended version) [14.866324473006255]
本稿では, エージェントの認知的態度を認知型と動機型の両方で推論するための新しい言語を紹介した。
私たちの言語には、暗黙の信念、完全な魅力、完全な反発、現実的な魅力、現実的な反発のための5種類のモーダル演算子が含まれています。
本稿では,信念変化操作の効果の推論を支援する言語の拡張について述べる。
論文 参考訳(メタデータ) (2024-12-18T17:17:07Z) - Meanings and Feelings of Large Language Models: Observability of Latent States in Generative AI [65.04274914674771]
アメリカ心理学会(APA)によると、現在のLarge Language Models(LLM)は「フィーリング」ができない。
我々の分析は、モデルがユーザに見えない非自明な計算を実行できるようにする可能性のある設計に光を当てている。
論文 参考訳(メタデータ) (2024-05-22T23:18:58Z) - Beyond Accuracy: Evaluating Self-Consistency of Code Large Language
Models with IdentityChain [28.71742839604069]
本稿では、コード大言語モデル(Code LLM)の自己整合性を定義する。
次に、モデルの自己整合性と従来の精度を効果的かつ効率的に評価するフレームワーク、IdentityChainを設計する。
論文 参考訳(メタデータ) (2023-10-21T16:14:56Z) - An Interleaving Semantics of the Timed Concurrent Language for
Argumentation to Model Debates and Dialogue Games [0.0]
エージェント間の同時相互作用をモデル化する言語を提案する。
このような言語は、エージェントが彼らの信念の受容可能性についてコミュニケーションし、推論するために使用する共有メモリを利用する。
知的エージェント間で行われる議論や対話ゲームのようなインタラクションをモデル化するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2023-06-13T10:41:28Z) - A Categorical Framework of General Intelligence [12.134564449202708]
1950年にアラン・チューリングがこの質問をしたので、直接答えることはできない。
2つの主要な結果とともに、この目標に向けてカテゴリ的なフレームワークを導入します。
論文 参考訳(メタデータ) (2023-03-08T13:37:01Z) - CycAs: Self-supervised Cycle Association for Learning Re-identifiable
Descriptions [61.724894233252414]
本稿では,人物再識別(re-ID)問題に対する自己教師型学習手法を提案する。
既存の教師なしのメソッドは通常、ビデオトラッカーやクラスタリングのような擬似ラベルに依存している。
疑似ラベルを使わずに、生のビデオから歩行者の埋め込みを学習できる別の教師なし手法を導入する。
論文 参考訳(メタデータ) (2020-07-15T09:52:35Z) - Words aren't enough, their order matters: On the Robustness of Grounding
Visual Referring Expressions [87.33156149634392]
視覚的参照表現認識のための標準ベンチマークであるRefCOgを批判的に検討する。
83.7%のケースでは言語構造に関する推論は不要である。
比較学習とマルチタスク学習の2つの手法を提案し,ViLBERTのロバスト性を高める。
論文 参考訳(メタデータ) (2020-05-04T17:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。