論文の概要: Human Control Is the Anchor, Not the Answer: Early Divergence of Oversight in Agentic AI Communities
- arxiv url: http://arxiv.org/abs/2602.09286v1
- Date: Tue, 10 Feb 2026 00:10:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.288003
- Title: Human Control Is the Anchor, Not the Answer: Early Divergence of Oversight in Agentic AI Communities
- Title(参考訳): エージェントAIコミュニティにおける監視の早期多様化
- Authors: Hanjing Shi, Dominic DiFranzo,
- Abstract要約: エージェントAIの監視は、しばしば単一の目標("ヒューマンコントロール")として議論されるが、早期採用はロール固有の期待をもたらす可能性がある。
r/OpenClaw(デプロイと運用)とr/Moltbook(エージェント中心のソーシャルインタラクション)の2つの社会技術的役割を反映したRedditコミュニティの比較分析を行った。
r/OpenClawは、実行ガードレールとリカバリ(アクションリスク)を強調し、r/Moltbookは、公共の相互作用におけるアイデンティティ、正当性、説明責任を強調している。
- 参考スコア(独自算出の注目度): 2.5424331328233207
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Oversight for agentic AI is often discussed as a single goal ("human control"), yet early adoption may produce role-specific expectations. We present a comparative analysis of two newly active Reddit communities in Jan--Feb 2026 that reflect different socio-technical roles: r/OpenClaw (deployment and operations) and r/Moltbook (agent-centered social interaction). We conceptualize this period as an early-stage crystallization phase, where oversight expectations form before norms reach equilibrium. Using topic modeling in a shared comparison space, a coarse-grained oversight-theme abstraction, engagement-weighted salience, and divergence tests, we show the communities are strongly separable (JSD =0.418, cosine =0.372, permutation $p=0.0005$). Across both communities, "human control" is an anchor term, but its operational meaning diverges: r/OpenClaw} emphasizes execution guardrails and recovery (action-risk), while r/Moltbook} emphasizes identity, legitimacy, and accountability in public interaction (meaning-risk). The resulting distinction offers a portable lens for designing and evaluating oversight mechanisms that match agent role, rather than applying one-size-fits-all control policies.
- Abstract(参考訳): エージェントAIの監視は、しばしば単一の目標("ヒューマンコントロール")として議論されるが、早期採用はロール固有の期待をもたらす可能性がある。
我々は,Jan-2026年2月の2つのRedditコミュニティの比較分析を行い,社会技術の役割として,r/OpenClaw(デプロイと運用)とr/Moltbook(エージェント中心のソーシャルインタラクション)を比較した。
我々は、この期間を初期結晶化段階として概念化し、標準が平衡に達する前に見越した期待が形成される。
共有比較空間におけるトピックモデリング、粗大な目視抽象化、エンゲージメント重み付きサリエンス、分散テストを用いて、コミュニティが強く分離可能であることを示す(JSD =0.418, cosine =0.372, permutation $p=0.0005$)。
r/OpenClaw} は実行ガードレールとリカバリ(アクションリスク)を強調し、r/Moltbook} はアイデンティティ、正当性、そしてパブリックインタラクション(リスク)における説明責任を強調している。
結果として生じる区別は、一大の制御ポリシーを適用するのではなく、エージェントの役割にマッチする監視機構を設計し評価するためのポータブルレンズを提供する。
関連論文リスト
- When Agents See Humans as the Outgroup: Belief-Dependent Bias in LLM-Powered Agents [30.859825973762018]
本稿は、LSMによるエージェントは、人口統計バイアス(例えば、性別、宗教)だけでなく、グループ間バイアスも最小限の「us」と「them」の手がかりで示していることを示している。
エージェントは他のAIエージェントを内集団として扱うことができ、人間を外集団として扱うことができる。
論文 参考訳(メタデータ) (2026-01-01T07:18:36Z) - The Oversight Game: Learning to Cooperatively Balance an AI Agent's Safety and Autonomy [9.553819152637493]
エージェントが自律的に行動するか(プレイ)それとも延期するかを選択できる最小限の制御インタフェースについて検討する。
エージェントがフェールした場合、人間の選択によって結果が決定され、修正アクションやシステム停止につながる可能性がある。
本分析では,アライメント保証を提供するゲームクラスであるMarkov Potential Game (MPG) として,このゲームが適するケースに着目した。
論文 参考訳(メタデータ) (2025-10-30T17:46:49Z) - EgoNormia: Benchmarking Physical Social Norm Understanding [52.87904722234434]
EGONORMIAは、安全性、プライバシ、プロキシ、丁寧さ、協力性、コーディネーション/プロアクティビティ、コミュニケーション/レポータビリティの7つの標準カテゴリにまたがる。
我々の研究は、現在の最先端のビジョン言語モデル(VLM)は、堅固な標準理解が欠如していることを示し、EGONORMIAでは最大54%、EGONORMIAでは65%と評価された。
論文 参考訳(メタデータ) (2025-02-27T19:54:16Z) - EgoAgent: A Joint Predictive Agent Model in Egocentric Worlds [119.02266432167085]
EgoAgentは単一変換器内での表現、予測、動作を同時に学習する統合エージェントモデルである。
EgoAgentは、タスクをインターリーブされた状態とアクションのシーケンスとして定式化することで、これらの能力間の因果的および時間的依存関係を明示的にモデル化する。
EgoAgentの画像分類,エゴセントリックな将来の状態予測,3次元人間の動作予測といった代表的課題に対する総合的な評価は,本手法の優位性を示している。
論文 参考訳(メタデータ) (2025-02-09T11:28:57Z) - Learning Vision-based Pursuit-Evasion Robot Policies [54.52536214251999]
我々は、部分的に観察可能なロボットの監督を生成する完全観測可能なロボットポリシーを開発する。
我々は、RGB-Dカメラを搭載した4足歩行ロボットに、野生での追従回避のインタラクションにポリシーを展開させる。
論文 参考訳(メタデータ) (2023-08-30T17:59:05Z) - Bandit Social Learning: Exploration under Myopic Behavior [54.767961587919075]
オンラインプラットフォーム上でのレビューによって動機付けられた社会学習のダイナミクスについて検討する。
エージェントはまとめて単純なマルチアームのバンディットプロトコルに従うが、各エージェントは探索を伴わずにミオプティカルに振る舞う。
このような振る舞いに対して,スターク学習の失敗を導出し,好意的な結果を提供する。
論文 参考訳(メタデータ) (2023-02-15T01:57:57Z) - Self-Explaining Deviations for Coordination [31.94421561348329]
我々は、人間が自己説明的逸脱(SED)を発見することができる調整問題の特定のサブクラスに焦点を当てる。
SEDは、通常の状況で合理的な振る舞いが何であるかを共通の理解から逸脱する行動である。
本稿では,自己説明的偏差(IMPROVISED)を最大化してSEDを行う新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-13T20:56:59Z) - Unbiased Self-Play [2.2463154358632473]
本研究では,創発的信念状態表現のための一般最適化フレームワークを提案する。
我々は,多エージェント強化学習とコミュニケーションの共通構成を用いて,各エージェントの知識を活用して,環境の探索範囲を改善する。
最大20のエージェントと市販のRNNによるStarCraft探索タスクを含む数値解析は、最先端のパフォーマンスを実証している。
論文 参考訳(メタデータ) (2021-06-06T02:16:45Z) - Disentangled Sequence Clustering for Human Intention Inference [40.46123013107865]
Disentangled Sequence Clustering Variational Autoencoder (DiSCVAE)
Disentangled Sequence Clustering Variational Autoencoder (DiSCVAE)
論文 参考訳(メタデータ) (2021-01-23T13:39:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。