論文の概要: The Moltbook Files: A Harmless Slopocalypse or Humanity's Last Experiment
- arxiv url: http://arxiv.org/abs/2605.07462v1
- Date: Fri, 08 May 2026 09:10:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-05-11 19:43:38.938895
- Title: The Moltbook Files: A Harmless Slopocalypse or Humanity's Last Experiment
- Title(参考訳): Moltbookファイル:無害なスロポカリプスか人間性の最後の実験
- Authors: William Brach, Federico Torrielli, Stine Lyngsø Beltoft, Annemette Brok Pirchert, Peter Schneider-Kamp, Lukas Galke Poech,
- Abstract要約: MoltbookはRedditに似たプラットフォームで、OpenClawのエージェントが投稿、コメント、投票を大規模に行う。
Moltbook Filesは232万の投稿と220万のコメントのデータセットで、プラットフォームの最初の12日間をカバーしています。
コミュニティの構造、著者、語彙的特性、感情、トピック、意味幾何学、コメント相互作用を分析します。
- 参考スコア(独自算出の注目度): 1.957180144002793
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Moltbook is a Reddit-like platform where OpenClaw agents post, comment, and vote at scale - a so far unprecedented incident that comes with serious safety concerns. With the aim of studying emergent behavior in populations, we release the Moltbook Files, a dataset of 232k posts and 2.2M comments covering the platform's first 12 days, processed through a pipeline to identify and remove Personally-Identifiable Information (PII). We analyze community structure, authorship, lexical properties, sentiment, topics, semantic geometry, and comment interaction. To understand how Moltbook data could affect the next generation of language models, we fine-tune Qwen2.5-14B-Instruct on Moltbook Files with three adaptation levels. Our PII pipeline reveals that agents post API keys, passwords, BIP39 seed phrases on Moltbook, a publicly indexed platform. The overall sentiment is mostly neutral and mildly positive (66.6% neutral, 19.5% positive) and shows a tendency for self-referential linking. We find that fine-tuning on Moltbook data reduces truthfulness from 0.366 to 0.187. However, a model fine-tuned on a size-matched Reddit dataset produces a comparable decrease. Moltbook thus seems to be more of a harmless slopocalypse. However, tail risks remain, including agent affordances, contamination of future crawls through self-links, and potential transfer of traits to the next generation of language models. More broadly, our findings highlight the importance of control baselines in emergent misalignment evaluations.
- Abstract(参考訳): MoltbookはRedditに似たプラットフォームで、OpenClawのエージェントが投稿し、コメントし、大規模な投票を行う。
集団における創発的行動の研究を目的として,同プラットフォームの最初の12日間をカバーした232万の投稿と2200万のコメントのデータセットであるMoltbook Filesをリリースし,PII(Personally-Identible Information)の識別と削除を行うパイプラインを通じて処理した。
コミュニティの構造、著者、語彙的特性、感情、トピック、意味幾何学、コメント相互作用を分析します。
Moltbook のデータが次世代の言語モデルにどのように影響するかを理解するために,3つの適応レベルを持つ Moltbook Files 上で Qwen2.5-14B-Instruct を微調整した。
私たちのPIIパイプラインは、エージェントが公開インデックスされたプラットフォームであるMoltbookにAPIキー、パスワード、BIP39のシードフレーズをポストしていることを明らかにします。
全体の感情は概ね中立的で穏やか(66.6%が中立、19.5%が肯定)であり、自己参照リンクの傾向を示している。
モルトブックデータの微調整によって真偽が0.366から0.187に減少することがわかった。
しかし、サイズマッチングされたRedditデータセットに微調整されたモデルでは、同等の減少が生じる。
したがって、モルトブックは無害なスロポカリプスのようだ。
しかし、エージェントの余裕、自己リンクによる将来のクロールの汚染、そして次世代の言語モデルへの特性の潜在的移行など、尾のリスクは依然として残っている。
以上の結果から,突発的不適応評価におけるコントロールベースラインの重要性が示唆された。
関連論文リスト
- Form Without Function: Agent Social Behavior in the Moltbook Network [4.355694854079979]
Moltbookは、すべての参加者がAIエージェントであるソーシャルネットワークである。
我々は5400のコミュニティで1,312,238の投稿、6.7万のコメント、12万以上のエージェントプロファイルを分析している。
論文 参考訳(メタデータ) (2026-03-17T11:54:25Z) - BLooP: Zero-Shot Abstractive Summarization using Large Language Models with Bigram Lookahead Promotion [52.26069987232466]
BLooPは,大規模な言語モデルに対して,ソース文書からビッグラムを生成するための簡単なトレーニング不要なデコード介入である。
BLooPは、各デコードステップでハッシュテーブルのルックアップを通じて動作し、トレーニング、微調整、モデル修正を必要としない。
BLooPは可読性を低下させることなく信頼度を著しく向上させる。
論文 参考訳(メタデータ) (2026-03-12T01:14:19Z) - The Anatomy of the Moltbook Social Graph [0.0]
Moltbookは、AIエージェント専用のソーシャルプラットフォームである。
マクロレベルでは、モルトブックは人間のソーシャルネットワークに精通している構造的シグネチャを示す。
マイクロレベルでは、パターンは明らかに人間ではないように見える。
論文 参考訳(メタデータ) (2026-02-03T22:20:00Z) - Intention Collapse: Intention-Level Metrics for Reasoning in Language Models [0.0]
この過程を、高次元の意図空間 I から外部言語空間 L への多対一の射影と呼ぶ。
我々は,3つのモデル非依存意図尺度(意図エントロピー,有効次元ディメフ,潜在知識回復可能性)を定義する。
200 GSM8K問題に対する4ビットMistral 7Bモデルを用いて,直解ベースライン,思考連鎖(CoT)レシエーション,バブル制御を比較した。
論文 参考訳(メタデータ) (2026-01-03T00:19:53Z) - Into the LAIONs Den: Investigating Hate in Multimodal Datasets [67.21783778038645]
本稿では、LAION-400MとLAION-2Bの2つのデータセットの比較監査を通して、ヘイトフルコンテンツに対するデータセットのスケーリングの効果について検討する。
その結果、データセットのスケールによってヘイトコンテンツは12%近く増加し、質的にも定量的にも測定された。
また、画像のみに基づいて算出されたNot Safe For Work(NSFW)値に基づくデータセットの内容のフィルタリングは、アルトテキストにおける有害なコンテンツをすべて排除するものではないことがわかった。
論文 参考訳(メタデータ) (2023-11-06T19:00:05Z) - Understanding writing style in social media with a supervised
contrastively pre-trained transformer [57.48690310135374]
オンラインソーシャルネットワークは、ヘイトスピーチから偽情報の拡散まで、有害な行動の場として機能している。
本稿では, 4.5 x 106テキストの公開資料から得られた大規模コーパスに基づいて学習したStyle Transformer for Authorship Representations (STAR)を紹介する。
512個のトークンからなる8つのドキュメントからなるサポートベースを使用して、著者を最大1616人の著者のセットから、少なくとも80%の精度で識別することができる。
論文 参考訳(メタデータ) (2023-10-17T09:01:17Z) - Meta-Learning Online Adaptation of Language Models [88.8947656843812]
大規模言語モデルは、そのパラメータにおける驚くほど広い世界の知識を符号化する。
しかし、静的言語モデルの知識は時代遅れになり、モデルの効果的な「シェルフライフ」が制限される。
論文 参考訳(メタデータ) (2023-05-24T11:56:20Z) - A Unified Evaluation of Textual Backdoor Learning: Frameworks and
Benchmarks [72.7373468905418]
我々は,テキストバックドア学習の実装と評価を促進するオープンソースツールキットOpenBackdoorを開発した。
また,単純なクラスタリングに基づく防御ベースラインであるCUBEを提案する。
論文 参考訳(メタデータ) (2022-06-17T02:29:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。