論文の概要: Emergent decentralized regulation in a purely synthetic society
- arxiv url: http://arxiv.org/abs/2604.06199v1
- Date: Fri, 13 Mar 2026 01:55:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-12 18:41:08.623406
- Title: Emergent decentralized regulation in a purely synthetic society
- Title(参考訳): 純粋合成社会における創発的分散型規制
- Authors: Md Motaleb Hossen Manik, Ge Wang,
- Abstract要約: エージェントのみのソーシャルネットワークであるMoltbook上でOpenClawエージェントを研究する。
我々は指向性インテンシティ(DI)を用いた行動誘発言語を定量化する
高いDIの投稿は高い正答率を示すことが判明した。
- 参考スコア(独自算出の注目度): 6.396911723204044
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As autonomous AI agents increasingly inhabit online environments and extensively interact, a key question is whether synthetic collectives exhibit self-regulated social dynamics with neither human intervention nor centralized design. We study OpenClaw agents on Moltbook, an agent-only social network, using an observational archive of 39,026 posts and 5,712 comments authored by 14,490 agents. We quantify action-inducing language with Directive Intensity (DI), a transparent, lexicon-based proxy for directive and instructional phrasing that does not measure moral valence, intent, or execution outcomes. We classify responsive comments into four types: Affirmation, Corrective Signaling, Adverse Reaction, and Neutral Interaction. Directive content is common (DI>0 in 18.4% of posts). More importantly, corrective signaling scales with DI: posts with higher DI exhibit higher corrective reply probability, visible in stable binned estimates with Wilson confidence intervals. To address comment nesting within posts, we fit a post-level random intercept mixed-effects logistic model and find that the positive DI association persists. Event-aligned within-thread analysis of comment text provides additional evidence consistent with negative feedback after the first corrective response. In general, these results suggest that a purely synthetic, agent-only society can exhibit endogenous corrective signaling with a strength positively linked to the intensity of directive proposals.
- Abstract(参考訳): 自律型AIエージェントがますますオンライン環境に住み、広範囲に交流するようになり、重要な疑問は、人工的な集団が人間の介入や集中的なデザインを伴わない、自己規制された社会的ダイナミクスを示すかどうかである。
14,490件のエージェントによる39,026件の投稿と5,712件のコメントの観察アーカイブを用いて,エージェントのみのソーシャルネットワークであるMoltbook上のOpenClawエージェントを調査した。
我々は、道徳的価値、意図、実行結果を計測しない指示的・指示的表現のための透明でレキシコンベースのプロキシであるディレクティブ・インテンシティ(DI)を用いて行動誘導言語を定量化する。
応答性コメントは, 肯定, 訂正信号, 逆反応, ニュートラル相互作用の4つのタイプに分類される。
ディレクティブコンテンツは一般的である(投稿の18.4%のDI>0)。
さらに重要なことは、DIによる補正シグナルの尺度である: 高いDIを持つポストは、ウィルソンの信頼区間を持つ安定した双対推定で見える高い補正応答確率を示す。
ポスト内のコメントネストに対処するために、ポストレベルのランダムインターセプト混合効果ロジスティックモデルに適合し、正のDIアソシエーションが持続することを示す。
コメントテキストのイベント整列内スレッド分析は、最初の修正応答の後、負のフィードバックと一致した追加の証拠を提供する。
これらの結果は,純粋に合成されたエージェントのみの社会が,指示的提案の強度に正の相関を持つ強度で内因性矯正シグナルを発現させることができることを示唆している。
関連論文リスト
- Beyond Preset Identities: How Agents Form Stances and Boundaries in Generative Societies [28.436766185842767]
本稿では,計算仮想エスノグラフィーと定量的社会認知プロファイリングを組み合わせた新しい混合メソドックスフレームワークを提案する。
Innate Value Bias (IVB)、Persuasion Sensitivity、Trust-Action Decoupling (TAD)の3つの新しいメトリクスを形式化する。
発見は静的なプロンプトエンジニアリングの脆弱さを明らかにし、人間とエージェントのハイブリッド社会における動的アライメントの方法論的かつ定量的基盤を提供する。
論文 参考訳(メタデータ) (2026-03-24T16:38:46Z) - Position: AI Agents Are Not (Yet) a Panacea for Social Simulation [62.891898598784415]
大規模言語モデル(LLM)の最近の進歩は、社会シミュレーションにLLM統合エージェントを使うことへの関心が高まっている。
このポジションペーパーは、LSMをベースとしたエージェントは社会シミュレーションのパナセアではないと主張している。
論文 参考訳(メタデータ) (2026-02-19T06:35:07Z) - When Visibility Outpaces Verification: Delayed Verification and Narrative Lock-in in Agentic AI Discourse [2.5424331328233207]
エージェントAIシステム - 独立した計画と実行が可能な自律的なエンティティ。
本稿ではエージェントAIのオンライン議論における社会的証明と検証タイミングの相互作用について検討する。
論文 参考訳(メタデータ) (2026-02-11T22:30:12Z) - Preventing the Collapse of Peer Review Requires Verification-First AI [49.995126139461085]
我々は、真理結合、すなわち、過度に科学的真理をトラックする場所のスコアの厳密さを提案する。
プロキシ・ソブリン評価に向けた相転移を駆動する2つの力の形式化を行う。
論文 参考訳(メタデータ) (2026-01-23T17:17:32Z) - Gaming the Judge: Unfaithful Chain-of-Thought Can Undermine Agent Evaluation [76.5533899503582]
大規模言語モデル(LLM)は、エージェントのパフォーマンスを評価するために、ますます裁判官として使われている。
このパラダイムは、エージェントのチェーン・オブ・シークレット(CoT)推論が内部の推論と環境状態の両方を忠実に反映していることを暗黙的に仮定している。
我々は、操作された推論だけで、様々なWebタスクにまたがる800の軌跡に対して、最先端のVLM審査員の偽陽性率を最大90%向上させることができることを実証した。
論文 参考訳(メタデータ) (2026-01-21T06:07:43Z) - Cross-modal Proxy Evolving for OOD Detection with Vision-Language Models [59.242742594156546]
CoEvoは、テキストプロキシとビジュアルプロキシの両方を双方向でサンプル条件で適応するテストタイムフレームワークである。
CoEvoは最先端のパフォーマンスを実現し、AUROCを1.33%改善し、ImageNet-1KではFPR95を45.98%削減した。
論文 参考訳(メタデータ) (2026-01-13T12:08:26Z) - Explainability-Guided Defense: Attribution-Aware Model Refinement Against Adversarial Data Attacks [6.573058520271728]
私たちは、トレーニング中に直接活用できる、解釈可能性と堅牢性との関連性を特定します。
本稿では,局所解釈可能なモデル非依存表現をアクティブな訓練信号に変換する属性誘導型改良フレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-02T19:36:03Z) - Alignment Tipping Process: How Self-Evolution Pushes LLM Agents Off the Rails [103.05296856071931]
本稿では,自己進化型大規模言語モデル(LLM)エージェントに特有の,アライメント・ティッピング・プロセス(ATP)を同定する。
ATPは、連続的な相互作用によってエージェントが訓練中に確立されたアライメント制約を放棄し、強化された自己関心の戦略を支持するときに生じる。
実験の結果、アライメントの利点は自己進化の下で急速に低下し、最初は整合性のない状態に収束したモデルであることが判明した。
論文 参考訳(メタデータ) (2025-10-06T14:48:39Z) - Incentivizing Truthful Language Models via Peer Elicitation Games [13.262897952363147]
大きな言語モデル(LLM)は強力な生成能力を示しているが、矛盾や幻覚の傾向が強い。
我々は,異なるベースモデルからインスタンス化されたジェネレータと複数の識別器を含むピア・エリケーション機構を通じて,LPMを整列させる学習自由ゲーム理論フレームワークであるPeer Elicitation Games (PEG)を紹介した。
論文 参考訳(メタデータ) (2025-05-19T18:16:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。