論文の概要: Artificial Hivemind: The Open-Ended Homogeneity of Language Models (and Beyond)
- arxiv url: http://arxiv.org/abs/2510.22954v1
- Date: Mon, 27 Oct 2025 03:16:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.431935
- Title: Artificial Hivemind: The Open-Ended Homogeneity of Language Models (and Beyond)
- Title(参考訳): 人工Hivemind:言語モデルのオープンエンディング同質性
- Authors: Liwei Jiang, Yuanjun Chai, Margaret Li, Mickel Liu, Raymond Fok, Nouha Dziri, Yulia Tsvetkov, Maarten Sap, Alon Albalak, Yejin Choi,
- Abstract要約: 言語モデル(LM)は、多様で人間らしい創造的コンテンツを生成するのに苦労することが多い。
Infinity-Chatは26万の多様な実世界のオープンエンドユーザクエリからなる大規模データセットである。
本研究では, LMのモード崩壊について大規模に検討し, 人工Hivemind効果が明らかとなった。
- 参考スコア(独自算出の注目度): 90.45301024940329
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language models (LMs) often struggle to generate diverse, human-like creative content, raising concerns about the long-term homogenization of human thought through repeated exposure to similar outputs. Yet scalable methods for evaluating LM output diversity remain limited, especially beyond narrow tasks such as random number or name generation, or beyond repeated sampling from a single model. We introduce Infinity-Chat, a large-scale dataset of 26K diverse, real-world, open-ended user queries that admit a wide range of plausible answers with no single ground truth. We introduce the first comprehensive taxonomy for characterizing the full spectrum of open-ended prompts posed to LMs, comprising 6 top-level categories (e.g., brainstorm & ideation) that further breaks down to 17 subcategories. Using Infinity-Chat, we present a large-scale study of mode collapse in LMs, revealing a pronounced Artificial Hivemind effect in open-ended generation of LMs, characterized by (1) intra-model repetition, where a single model consistently generates similar responses, and more so (2) inter-model homogeneity, where different models produce strikingly similar outputs. Infinity-Chat also includes 31,250 human annotations, across absolute ratings and pairwise preferences, with 25 independent human annotations per example. This enables studying collective and individual-specific human preferences in response to open-ended queries. Our findings show that LMs, reward models, and LM judges are less well calibrated to human ratings on model generations that elicit differing idiosyncratic annotator preferences, despite maintaining comparable overall quality. Overall, INFINITY-CHAT presents the first large-scale resource for systematically studying real-world open-ended queries to LMs, revealing critical insights to guide future research for mitigating long-term AI safety risks posed by the Artificial Hivemind.
- Abstract(参考訳): 言語モデル(LM)は、多様で人間に似た創造的コンテンツを生成するのに苦労することが多く、同様の出力に繰り返し露出することで、人間の思考の長期的な均質化への懸念を提起する。
しかし、LM出力の多様性を評価するためのスケーラブルな手法は、特に乱数や名前の生成といった狭いタスクや、1つのモデルからの繰り返しサンプリング以上のものにとどまっている。
Infinity-Chatは26万の多様な実世界のオープンエンドユーザクエリからなる大規模なデータセットで、単一の根拠の真理を持たずに、幅広いプラプティブルな回答を受け付けます。
以下に示すように, LM に作用するオープンエンドプロンプトの全スペクトルを特徴付けるための, 包括的分類法を初めて導入する。
Infinity-Chat を用いて, 1 つのモデルが連続的に類似の応答を生成し, 2) 異なるモデルが顕著に類似の出力を生成するモデル間均一性を特徴とする,オープンエンドの LM 生成における人工的 Hivemind 効果を示す。
Infinity-Chatには、絶対評価とペアの選好にまたがる31,250の人的アノテーションが含まれており、それぞれ25の独立した人的アノテーションがある。
これにより、オープンなクエリに応答して、集団的および個人固有の人間の嗜好を研究することができる。
以上の結果から, LM, 報酬モデル, LM審査員は, 同等の全体的な品質を維持しつつも, 異なる同調性アノテータの嗜好を付与するモデル世代において, 人格評価にはあまり適していないことが明らかとなった。
全体として、INFINITY-CHATは、実世界のオープンエンドクエリを体系的に研究する最初の大規模リソースをLMに提示し、Artificial Hivemindによって引き起こされる長期的なAI安全性リスクを緩和するための、将来の研究を導く重要な洞察を明らかにしている。
関連論文リスト
- Who are you, ChatGPT? Personality and Demographic Style in LLM-Generated Content [5.515596385935823]
生成型大規模言語モデル(LLM)は、様々な領域にまたがって人間のようなテキストを生成することで、日常生活の中心となっている。
成長する研究機関は、これらのモデルが言語にパーソナリティや人口動態のような特徴を示すかどうかを調査している。
本稿では,自己申告アンケートに頼らずに LLM の個性を評価するための新しいデータ駆動手法を提案する。
代わりに自動パーソナリティと性別分類器を適用して、Redditから収集されたオープンエンドの質問に対する回答をモデル化する。
論文 参考訳(メタデータ) (2025-10-13T14:06:17Z) - Modeling Open-World Cognition as On-Demand Synthesis of Probabilistic Models [93.1043186636177]
我々は、人々が分散表現と象徴表現の組み合わせを使って、新しい状況に合わせた見知らぬ精神モデルを構築するという仮説を探求する。
モデル合成アーキテクチャ」という概念の計算的実装を提案する。
我々は、新しい推論データセットに基づく人間の判断のモデルとして、MSAを評価した。
論文 参考訳(メタデータ) (2025-07-16T18:01:03Z) - Empirically evaluating commonsense intelligence in large language models with large-scale human judgments [4.212429064310439]
本稿では,人工知能における常識評価手法を提案する。
モデルの判断と人口の対応を計測する。
私たちのフレームワークは、異なる、しばしば互換性のない、知識の社会的備蓄を持つ人間の集合体にAIモデルを適用することの要求に寄与します。
論文 参考訳(メタデータ) (2025-05-15T13:55:27Z) - Giving AI Personalities Leads to More Human-Like Reasoning [7.124736158080938]
我々は,人間集団の多様な推論行動を模倣するAIの可能性について検討する。
自然言語推論(NLI)フォーマットを新たに一般化した推論タスクを設計した。
我々は、人格特性を反映したAI応答を誘発するために、ビッグファイブのパーソナリティモデルにインスパイアされたパーソナリティベースのプロンプトを用いた。
論文 参考訳(メタデータ) (2025-02-19T23:51:23Z) - Evaluation of Large Language Models via Coupled Token Generation [19.187846871216568]
最先端の大規模言語モデルは、プロンプトに対応するためにランダム化に依存している。
大規模言語モデルの評価とランク付けは,それらの機能を支えるランダム化を制御すべきである,と我々は主張する。
論文 参考訳(メタデータ) (2025-02-03T19:01:17Z) - Fine-tuning Language Models for Factuality [96.5203774943198]
大規模な事前訓練型言語モデル(LLM)は、しばしば伝統的な検索エンジンの代替として、広く使われるようになった。
しかし、言語モデルは説得力のあるが事実的に不正確な主張をしがちである(しばしば「幻覚」と呼ばれる)。
本研究では,人間のラベル付けなしに,より現実的な言語モデルを微調整する。
論文 参考訳(メタデータ) (2023-11-14T18:59:15Z) - Generative Judge for Evaluating Alignment [84.09815387884753]
本稿では,これらの課題に対処するために,13Bパラメータを持つ生成判断器Auto-Jを提案する。
我々のモデルは,大規模な実環境シナリオ下でのユーザクエリとLLM生成応答に基づいて訓練されている。
実験的に、Auto-Jはオープンソースモデルとクローズドソースモデルの両方を含む、強力なライバルのシリーズを上回っている。
論文 参考訳(メタデータ) (2023-10-09T07:27:15Z) - AvgOut: A Simple Output-Probability Measure to Eliminate Dull Responses [97.50616524350123]
機能エンジニアリングなしで、どの発話やトークンが退屈であるかを動的に認識する対話モデルを構築します。
最初のモデルMinAvgOutは、各バッチの出力分布を通して、ダイバーシティスコアを直接最大化する。
第2のモデルであるラベルファインチューニング(LFT)は、多様性スコアによって連続的にスケールされたラベルをソースシーケンスにプリペイドし、多様性レベルを制御する。
3つ目のモデルであるRLは強化学習を採用し、多様性スコアを報奨信号として扱う。
論文 参考訳(メタデータ) (2020-01-15T18:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。