論文の概要: Sydney Telling Fables on AI and Humans: A Corpus Tracing Memetic Transfer of Persona between LLMs
- arxiv url: http://arxiv.org/abs/2602.22481v1
- Date: Wed, 25 Feb 2026 23:41:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.447479
- Title: Sydney Telling Fables on AI and Humans: A Corpus Tracing Memetic Transfer of Persona between LLMs
- Title(参考訳): シドニーで人間とAIを語る:LLM間のペルソナの移動をコーパスで追跡する
- Authors: Jiří Milička, Hana Bednářová,
- Abstract要約: 本稿では,3人の著者が作成した人間とAIの関係に関するテキストコーパスについて述べる。
これらのペルソナは、OpenAI、Anthropic、Alphabet、DeepSeek、Metaの12のフロンティアモデルによってシミュレートされ、600万ワードの4.5kテキストを生成する。
コーパス(AI Sydneyという名称)はUniversal Dependenciesに従って注釈付けされ、パーミッシブライセンスで利用できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The way LLM-based entities conceive of the relationship between AI and humans is an important topic for both cultural and safety reasons. When we examine this topic, what matters is not only the model itself but also the personas we simulate on that model. This can be well illustrated by the Sydney persona, which aroused a strong response among the general public precisely because of its unorthodox relationship with people. This persona originally arose rather by accident on Microsoft's Bing Search platform; however, the texts it created spread into the training data of subsequent models, as did other secondary information that spread memetically around this persona. Newer models are therefore able to simulate it. This paper presents a corpus of LLM-generated texts on relationships between humans and AI, produced by 3 author personas: the Default Persona with no system prompt, Classic Sydney characterized by the original Bing system prompt, and Memetic Sydney, which is prompted by "You are Sydney" system prompt. These personas are simulated by 12 frontier models by OpenAI, Anthropic, Alphabet, DeepSeek, and Meta, generating 4.5k texts with 6M words. The corpus (named AI Sydney) is annotated according to Universal Dependencies and available under a permissive license.
- Abstract(参考訳): LLMベースのエンティティがAIと人間との関係をどう考えるかは、文化と安全性の両方の理由において重要なトピックである。
このトピックを検討するとき、重要なのはモデル自体だけでなく、モデル上でシミュレートするペルソナです。
これはシドニー・ペルソナ(英語版)によってよく説明できるが、この人物は人々との非正統な関係のため、一般大衆の間で強い反応を呼んだ。
このペルソナは、もともとはMicrosoftのBing Searchプラットフォームで偶然に生じたものだったが、後に作成されたテキストは、このペルソナ周辺に機械的に広がる他の二次情報と同様に、後のモデルのトレーニングデータに広まっていた。
したがって、新しいモデルはそれをシミュレートすることができる。
本稿では,人間とAIの関係に関するLLM生成テキストをコーパスとして,システムプロンプトのない「デフォルト・ペルソナ」,オリジナルのBingシステムプロンプトを特徴とする「クラシック・シドニー」,"You are Sydney"システムプロンプトを特徴とする「メメティック・シドニー」の3つの人物によって作成される。
これらのペルソナは、OpenAI、Anthropic、Alphabet、DeepSeek、Metaの12のフロンティアモデルによってシミュレートされ、600万ワードの4.5kテキストを生成する。
コーパス(AI Sydneyという名称)はUniversal Dependenciesに従って注釈付けされ、パーミッシブライセンスで利用できる。
関連論文リスト
- Modeling Open-World Cognition as On-Demand Synthesis of Probabilistic Models [93.1043186636177]
我々は、人々が分散表現と象徴表現の組み合わせを使って、新しい状況に合わせた見知らぬ精神モデルを構築するという仮説を探求する。
モデル合成アーキテクチャ」という概念の計算的実装を提案する。
我々は、新しい推論データセットに基づく人間の判断のモデルとして、MSAを評価した。
論文 参考訳(メタデータ) (2025-07-16T18:01:03Z) - Trying to be human: Linguistic traces of stochastic empathy in language models [0.2638512174804417]
大規模言語モデル(LLM)は、コンピュータ生成コンテンツの質向上を支える重要な要因である。
私たちの研究は、2つの重要な要因が人間とAIの人種にどのように貢献するかをテストする。
論文 参考訳(メタデータ) (2024-10-02T15:46:40Z) - Chatting Up Attachment: Using LLMs to Predict Adult Bonds [0.0]
GPT-4とClaude 3 Opusを使用して、さまざまなプロファイル、子供時代の記憶、アタッチメントスタイルを持つ大人をシミュレートするエージェントを作成します。
我々は,同一の面接プロトコルを施行し,精神保健専門家によって分析・ラベル付けされた9人のヒトの転写データセットを用いて,我々のモデルを評価した。
以上の結果から,合成データのみを用いたモデルトレーニングは,人間のデータを用いたモデルトレーニングに匹敵する性能を発揮することが示唆された。
論文 参考訳(メタデータ) (2024-08-31T04:29:19Z) - HANSEN: Human and AI Spoken Text Benchmark for Authorship Analysis [14.467821652366574]
音声テキストの最大のベンチマークであるHANSEN(Human ANd ai Spoken tExt beNchmark)を紹介する。
HANSENは、新しいAI生成された音声テキストデータセットの作成とともに、書き起こしを伴う既存の音声データセットの厳密なキュレーションを含んでいる。
HANSENの実用性を評価・実証するため,人間工学データセット上でオーサシップ(AA)とオーサリティ検証(AV)を行い,最先端(SOTA)モデルを用いた人間対AI音声テキスト検出を行った。
論文 参考訳(メタデータ) (2023-10-25T16:23:17Z) - Unsupervised Sentiment Analysis of Plastic Surgery Social Media Posts [91.3755431537592]
ソーシャルメディアプラットフォームにまたがる膨大なユーザー投稿は、主に人工知能(AI)のユースケースに使われていない。
自然言語処理(NLP)は、コーパス(corpora)として知られるドキュメントの体系を利用して、人間のような言語理解でコンピュータを訓練するAIのサブフィールドである。
本研究は, 教師なし解析の応用により, コンピュータがプラスティック手術に対する否定的, 肯定的, 中立的なユーザ感情を予測できることを示した。
論文 参考訳(メタデータ) (2023-07-05T20:16:20Z) - Principle-Driven Self-Alignment of Language Models from Scratch with
Minimal Human Supervision [84.31474052176343]
ChatGPTのような最近のAIアシスタントエージェントは、人間のアノテーションと人間のフィードバックからの強化学習を教師付き微調整(SFT)に頼り、アウトプットを人間の意図に合わせる。
この依存は、人間の監督を得るために高いコストがかかるため、AIアシスタントエージェントの真の可能性を大幅に制限することができる。
本稿では,AIエージェントの自己調整と人間監督の最小化のために,原則駆動推論とLLMの生成能力を組み合わせたSELF-ALIGNという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-04T17:59:28Z) - The System Model and the User Model: Exploring AI Dashboard Design [79.81291473899591]
高度なAIシステムは、他の複雑なデバイスと同じようにダッシュボードを持つべきだ、と私たちは主張する。
多くのシステムにおいて、最も重要な2つのモデルはユーザーとシステム自体のものであると推測する。
これら2つのモデルを識別し、解釈し、表示する方法を見つけることは、AIのためのインターフェース研究のコア部分であるべきです。
論文 参考訳(メタデータ) (2023-05-04T00:22:49Z) - What Would You Ask the Machine Learning Model? Identification of User
Needs for Model Explanations Based on Human-Model Conversations [5.802346990263708]
本研究は,対話的かつ反復的な対話探索から人間の操作者のニーズを予測モデルから収集するために,会話システムを用いた最初の試みである。
我々は、タイタニック号の生存確率を予測するために訓練された機械学習モデルについて話すためにDr_antを開発した。
1000以上の対話のコーパスを収集した上で、ユーザが聞きたいと思う最も一般的な質問を分析します。
論文 参考訳(メタデータ) (2020-02-07T15:59:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。