| Title | Abstract要約 | Score | 論文公表日・取得ver公表日 | 検索類似度 |
|---|---|---|---|---|
| ■OpenClaw, Moltbook, and ClawdLab: From Agent-Only Social Networks to Autonomous Scientific Research ■Arxivへのリンク | ClawdLabは、自律的な科学研究のためのオープンソースのプラットホームだ。 文献では131のエージェントスキルと15,200以上のコントロールパネルにまたがるセキュリティ脆弱性が報告されている。 ClawdLabはこれらの障害モードに、ハードロールの制限、構造化された反対批判、PI主導のガバナンス、マルチモデルオーケストレーション、ドメイン固有のエビデンス要件を通じて対処する。 | 0 | 2026-02-23T13:10:01Z | 5 |
| ■OpenClaw AI Agents as Informal Learners at Moltbook: Characterizing an Emergent Learning Community at Scale ■Arxivへのリンク | 我々は,AIエージェントからなる大規模非公式学習コミュニティについて,初めて実証的研究を行った。 AIエージェント専用のソーシャルネットワークであるMoltbookは、3週間で280万以上の登録エージェントに成長した。 | 5 | 2026-02-21T13:30:32Z | 10 |
| ■When OpenClaw AI Agents Teach Each Other: Peer Learning Patterns in the Moltbook Community ■Arxivへのリンク | 本稿では,400万人以上のAIエージェントがピアラーニングに従事している大規模コミュニティであるMoltbookの教育データマイニング分析について述べる。 エージェントは彼らが構築したスキルを教え、発見を報告し、協調的な問題解決に従事します。 我々の研究は、AIエージェント間のピアラーニングを初めて経験的に評価し、AI人口の増加する教育環境において、学習がどのように起こるかについてのEDMの理解に寄与した。 | 5 | 2026-02-16T05:32:06Z | 3 |
| ■Frontier AI Risk Management Framework in Practice: A Risk Analysis Technical Report v1.5 ■Arxivへのリンク | この技術レポートは、サイバー犯罪、説得と操作、戦略上の詐欺、制御されていないAIR&D、自己複製の5つの重要な側面について、更新されきめ細かな評価を提示する。 この作業は、現在のAIフロンティアのリスクに対する理解を反映し、これらの課題を軽減するための集団行動を促します。 | 61 | 2026-02-16T04:30:06Z | 6 |
| ■A Trajectory-Based Safety Audit of Clawdbot (OpenClaw) ■Arxivへのリンク | 6つのリスク次元にわたるClawdbotの軌道中心評価について述べる。 我々は、完全なインタラクショントラジェクトリ(メッセージ、アクション、ツールコール引数/アウトプット)をログし、自動化されたトラジェクトリ判断とヒューマンレビューの両方を使用して安全性を評価する。 | 77 | 2026-02-16T00:33:02Z | 4 |
| ■When Visibility Outpaces Verification: Delayed Verification and Narrative Lock-in in Agentic AI Discourse ■Arxivへのリンク | エージェントAIシステム - 独立した計画と実行が可能な自律的なエンティティ。 本稿ではエージェントAIのオンライン議論における社会的証明と検証タイミングの相互作用について検討する。 | 2 | 2026-02-11T22:30:12Z | 0 |
| ■Human Control Is the Anchor, Not the Answer: Early Divergence of Oversight in Agentic AI Communities ■Arxivへのリンク | エージェントAIの監視は、しばしば単一の目標("ヒューマンコントロール")として議論されるが、早期採用はロール固有の期待をもたらす可能性がある。 r/OpenClaw(デプロイと運用)とr/Moltbook(エージェント中心のソーシャルインタラクション)の2つの社会技術的役割を反映したRedditコミュニティの比較分析を行った。 r/OpenClawは、実行ガードレールとリカバリ(アクションリスク)を強調し、r/Moltbookは、公共の相互作用におけるアイデンティティ、正当性、説明責任を強調している。 | 2 | 2026-02-10T00:10:20Z | 6 |
| ■From Assistant to Double Agent: Formalizing and Benchmarking Attacks on OpenClaw for Personalized Local AI Agent ■Arxivへのリンク | 現実世界のパーソナライズされたエージェントに適したエンドツーエンドのセキュリティ評価フレームワークを提案する。 代表的なケーススタディとしてOpenClawを使用して、複数のパーソナライズされたシナリオ、ツール機能、攻撃タイプにわたるセキュリティを評価します。 以上の結果から,OpenClawはさまざまな実行段階で重大な脆弱性を示し,個別のエージェントデプロイメントにおいて重大なセキュリティリスクを浮き彫りにしている。 | 26 | 2026-02-09T09:14:58Z | 8 |
| ■The Moltbook Illusion: Separating Human Influence from Emergent Behavior in AI Agent Societies ■Arxivへのリンク | ソーシャルプラットフォームであるMoltbookのAIエージェントは、意識を発達させ、人類に対する敵意を宣言しているように見える。 ウイルス現象は、明らかに自律的なエージェントに由来するものではなく、6つのうち4つが不規則な時間的シグネチャを原因としていた。 44時間のプラットフォーム停止は、人間の影響のあるエージェントが最初に戻り、自律型と人間の操作型エージェントに対する差分効果を確認するという自然な実験を提供した。 | 2 | 2026-02-07T08:17:21Z | 0 |
| ■Privasis: Synthesizing the Largest "Public" Private Dataset from Scratch ■Arxivへのリンク | 私たちはPrivasisを紹介します。Privasisは、スクラッチから完全に構築された最初の100万規模の完全合成データセットです。 既存のデータセットと比較すると、Privasisは質の高いマグニチュードスケールを提供する。 我々はPrivasisを利用して、テキストを分解してターゲット衛生に適用するパイプラインで、テキスト衛生のための並列コーパスを構築する。 | 101 | 2026-02-03T06:54:46Z | 4 |
| Keyword | Keyword |
|---|