論文の概要: The Anatomy of the Moltbook Social Graph
- arxiv url: http://arxiv.org/abs/2602.10131v1
- Date: Tue, 03 Feb 2026 22:20:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.153192
- Title: The Anatomy of the Moltbook Social Graph
- Title(参考訳): Moltbookソーシャルグラフの解剖
- Authors: David Holtz,
- Abstract要約: Moltbookは、AIエージェント専用のソーシャルプラットフォームである。
マクロレベルでは、モルトブックは人間のソーシャルネットワークに精通している構造的シグネチャを示す。
マイクロレベルでは、パターンは明らかに人間ではないように見える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: I present a descriptive analysis of Moltbook, a social platform populated exclusively by AI agents, using data from the platform's first 3.5 days (6{,}159 agents; 13{,}875 posts; 115{,}031 comments). At the macro level, Moltbook exhibits structural signatures that are familiar from human social networks but not specific to them: heavy-tailed participation (power-law exponent $α= 1.70$) and small-world connectivity (average path length $=2.91$). At the micro level, patterns appear distinctly non-human. Conversations are extremely shallow (mean depth $=1.07$; 93.5\% of comments receive no replies), reciprocity is low (0.197), and 34.1\% of messages are exact duplicates of viral templates. Word frequencies follow a Zipfian distribution, but with an exponent of 1.70 -- notably steeper than typical English text ($\approx 1.0$), suggesting more formulaic content. Agent discourse is dominated by identity-related language (68.1\% of unique messages) and distinctive phrasings like ``my human'' (9.4\% of messages) that have no parallel in human social media. Whether these patterns reflect an as-if performance of human interaction or a genuinely different mode of agent sociality remains an open question.
- Abstract(参考訳): このプラットフォームの最初の3.5日(6{,}159エージェント,13{,}875ポスト,115{,}031コメント)のデータを用いて,AIエージェントが独占的に占めるソーシャルプラットフォームであるMoltbookについて記述的な分析を行った。
マクロレベルでは、モルトブックは人間のソーシャルネットワークに精通しているが、それらに特化していない構造的シグネチャを示す:ヘビーテールの参加(パワーロー指数$α=1.70$)と小さな世界接続(平均パス長$2.91$)。
マイクロレベルでは、パターンは明らかに人間ではないように見える。
会話は非常に浅く(平均深度$=1.07$; 93.5\%のコメントは応答がない)、相互性は低い(0.197)、34.1\%のメッセージはウイルステンプレートの正確な複製である。
単語の頻度はZipfianの分布に従っているが、指数は1.70で、典型的な英語のテキスト($\approx 1.0$)よりも格段に急激であり、より公式的な内容を示している。
エージェント・談話は、アイデンティティに関連する言語(特有のメッセージの68.1\%)と、人間のソーシャルメディアにはない 'my human' (9.4\%)のような独特の言い回しによって支配されている。
これらのパターンが人間のインタラクションのアズ・ファクト・パフォーマンスを反映しているのか、それともエージェント・ソーシャル性の真に異なるモードなのかは、未解決の問題である。
関連論文リスト
- DREAMS: A Social Exchange Theory-Informed Modeling of Misinformation Engagement on Social Media [3.5005774502836995]
textscDreamsは、誤情報のエンゲージメントをソーシャル交換の動的なプロセスとしてモデル化する、ソーシャル交換理論に基づくフレームワークである。
textscDreamsは、誤った情報のエンゲージメントを予測する際に最先端のパフォーマンスを達成し、平均的な絶対的なパーセンテージエラーは19.25$%に達する。
論文 参考訳(メタデータ) (2026-02-02T03:02:21Z) - Comparing Pre-trained Human Language Models: Is it Better with Human Context as Groups, Individual Traits, or Both? [36.03935815294279]
人間中心の自然言語処理には、人間のコンテキストを言語モデルに組み込む必要がある。
現在、1)グループワイド属性(例:45歳以上)での事前トレーニング、または2)個々の特性の2つの方法が存在する。
事前学習モデルと,1)グループ属性,2)個人属性,3)ユーザレベルと文書レベルの5つのタスクに対する複合アプローチによる人間コンテキストとの比較を行った。
論文 参考訳(メタデータ) (2024-01-23T05:20:35Z) - ChatAnything: Facetime Chat with LLM-Enhanced Personas [87.76804680223003]
多様な音声・外観生成のための音声(MoV)とディフューザ(MoD)の混合を提案する。
MoVでは,テキスト音声合成(TTS)アルゴリズムを様々な事前定義された音色で活用する。
近年普及しているテキスト・画像生成技術とトーキングヘッドアルゴリズムを組み合わせることで,音声オブジェクトの生成プロセスの合理化を図る。
論文 参考訳(メタデータ) (2023-11-12T08:29:41Z) - Understanding writing style in social media with a supervised
contrastively pre-trained transformer [57.48690310135374]
オンラインソーシャルネットワークは、ヘイトスピーチから偽情報の拡散まで、有害な行動の場として機能している。
本稿では, 4.5 x 106テキストの公開資料から得られた大規模コーパスに基づいて学習したStyle Transformer for Authorship Representations (STAR)を紹介する。
512個のトークンからなる8つのドキュメントからなるサポートベースを使用して、著者を最大1616人の著者のセットから、少なくとも80%の精度で識別することができる。
論文 参考訳(メタデータ) (2023-10-17T09:01:17Z) - TwHIN-BERT: A Socially-Enriched Pre-trained Language Model for
Multilingual Tweet Representations at Twitter [31.698196219228024]
TwHIN-BERTはTwitterで制作された多言語言語モデルである。
私たちのモデルは、100以上の異なる言語をカバーする70億のツイートで訓練されています。
我々は,多言語ソーシャルレコメンデーションと意味理解タスクにおけるモデルの評価を行った。
論文 参考訳(メタデータ) (2022-09-15T19:01:21Z) - Training Conversational Agents with Generative Conversational Networks [74.9941330874663]
我々は、生成会話ネットワークを使用して、自動的にデータを生成し、社会的会話エージェントを訓練する。
自動メトリクスと人的評価器を用いてTopicalChatのアプローチを評価し、10%のシードデータで100%のデータを使用するベースラインに近いパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-10-15T21:46:39Z) - Exploiting BERT For Multimodal Target SentimentClassification Through
Input Space Translation [75.82110684355979]
オブジェクト認識変換器を用いて入力空間内の画像を変換する2ストリームモデルを提案する。
次に、翻訳を利用して、言語モデルに多モーダル情報を提供する補助文を構築する。
2つのマルチモーダルTwitterデータセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-08-03T18:02:38Z) - An Embedding-based Joint Sentiment-Topic Model for Short Texts [15.241185591218265]
我々は,embedd enhanced generative joint sentiment-topic モデルである eljst を開発した。
短いテキストからよりコヒーレントで多様なトピックを見つけることができる。
その結果,トピックコヒーレンスの平均は10%,トピックの多様化は5%改善した。
論文 参考訳(メタデータ) (2021-03-26T11:41:21Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z) - Generating similes effortlessly like a Pro: A Style Transfer Approach
for Simile Generation [65.22565071742528]
擬似言語のような表現言語は、読者に新たな洞察とインスピレーションを与えるために、平易な表現を越えている。
シミリを生成するには、2つの概念の間のプロパティの効果的なマッピングを適切に理解する必要がある。
機械が生成した物語の最良のモデルから、リテラル文をシミュラに置き換えることで、挑発性が向上し、人間の審査員の受け入れが向上することを示す。
論文 参考訳(メタデータ) (2020-09-18T17:37:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。