論文の概要: Examining and Addressing Barriers to Diversity in LLM-Generated Ideas
- arxiv url: http://arxiv.org/abs/2602.20408v1
- Date: Mon, 23 Feb 2026 23:10:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.546242
- Title: Examining and Addressing Barriers to Diversity in LLM-Generated Ideas
- Title(参考訳): LLMによるアイデアの多様性に対する障壁の検討と対応
- Authors: Yuting Deng, Melanie Brucks, Olivier Toubia,
- Abstract要約: 人間の独立したサンプルによって生成されるアイデアは、独立したLCMサンプルから生成されるアイデアよりも多様である傾向にある。
これらの懸念は、LLMへの広範な依存がアイデアを均質化し、社会レベルでのイノベーションを損なう恐れを提起する。
- 参考スコア(独自算出の注目度): 0.7009487789080344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ideas generated by independent samples of humans tend to be more diverse than ideas generated from independent LLM samples, raising concerns that widespread reliance on LLMs could homogenize ideation and undermine innovation at a societal level. Drawing on cognitive psychology, we identify (both theoretically and empirically) two mechanisms undermining LLM idea diversity. First, at the individual level, LLMs exhibit fixation just as humans do, where early outputs constrain subsequent ideation. Second, at the collective level, LLMs aggregate knowledge into a unified distribution rather than exhibiting the knowledge partitioning inherent to human populations, where each person occupies a distinct region of the knowledge space. Through four studies, we demonstrate that targeted prompting interventions can address each mechanism independently: Chain-of-Thought (CoT) prompting reduces fixation by encouraging structured reasoning (only in LLMs, not humans), while ordinary personas (versus "creative entrepreneurs" such as Steve Jobs) improve knowledge partitioning by serving as diverse sampling cues, anchoring generation in distinct regions of the semantic space. Combining both approaches produces the highest idea diversity, outperforming humans. These findings offer a theoretically grounded framework for understanding LLM idea diversity and practical strategies for human-AI collaborations that leverage AI's efficiency without compromising the diversity essential to a healthy innovation ecosystem.
- Abstract(参考訳): 人間の独立したサンプルによって生み出されたアイデアは、独立したLCMサンプルから生み出されたアイデアよりも多様であり、LSMへの広範な依存が、思想を均質化し、社会的なレベルでイノベーションを損なう可能性があるという懸念を提起する。
認知心理学に基づいて、LLMのアイデアの多様性を損なう2つのメカニズムを(理論的にも経験的にも)特定する。
まず、個々のレベルでは、LSMは人間のように固定され、初期の出力はその後の考えを制約する。
第2に、LLMは知識を集団レベルで集約し、人間の集団に固有の知識分割を示すのではなく、知識空間の異なる領域を占有する。
チェーン・オブ・ソート(CoT)は構造的推論(LLMのみであって人間ではない)を奨励し、一般人(スティーブ・ジョブズのような「創造的起業家」)は多様なサンプリング手段として機能し、セマンティック空間の異なる領域で世代を固定することで知識分割を改善する。
両方のアプローチを組み合わせることで、最高のアイデアの多様性が生まれ、人間より優れています。
これらの発見は、LLMのアイデアの多様性を理解するための理論的基盤となるフレームワークと、健全なイノベーションエコシステムに不可欠な多様性を妥協することなく、AIの効率を活用する人間とAIのコラボレーションのための実践的な戦略を提供する。
関連論文リスト
- A word association network methodology for evaluating implicit biases in LLMs compared to humans [0.0]
大規模言語モデル(LLM)における暗黙バイアス評価のための新しい単語関連ネットワーク手法を提案する。
提案手法では,LLMに符号化された暗黙的関係構造を解析し,バイアスの定量的および定性的評価を行う。
提案手法の有用性を実証するために, 性別, 宗教, 民族性, 性的指向, 政党に関連する社会的偏見を調べるために, 人間と多用されたLLMの両方に適用した。
論文 参考訳(メタデータ) (2025-10-28T15:03:18Z) - When One LLM Drools, Multi-LLM Collaboration Rules [98.71562711695991]
私たちは、データ、スキル、人々の幅広い多様性を表現するために、マルチLLMコラボレーションを議論しています。
既存のマルチLLM協調手法を,アクセスレベルと情報交換レベルに基づいて階層構造に整理する。
コンポジションインテリジェンスとコラボレーティブAI開発への不可欠な道として,マルチLLMコラボレーションを構想する。
論文 参考訳(メタデータ) (2025-02-06T21:13:44Z) - Toward Inclusive Educational AI: Auditing Frontier LLMs through a Multiplexity Lens [1.094065133109559]
本稿では,大規模言語モデル(LLM)における文化的バイアスの評価と緩和のための枠組みを提案する。
分析の結果,LLMには文化的偏極が頻繁に見られ,バイアスは過度にも微妙にも現れることがわかった。
システムプロンプトに直接多重化原理を組み込む textitContextual-Implemented Multiplex LLM と、複数の LLM エージェントがそれぞれ異なる文化的視点を表現し、バランスよく合成された応答を協調的に生成する textitMulti-Agent System (MAS)-Implemented Multiplex LLM という2つの戦略を提案する。
論文 参考訳(メタデータ) (2025-01-02T11:27:08Z) - Beyond Human Norms: Unveiling Unique Values of Large Language Models through Interdisciplinary Approaches [69.73783026870998]
本研究では,大言語モデルの固有値システムをスクラッチから再構築する新しいフレームワークであるValueLexを提案する。
語彙仮説に基づいて、ValueLexは30以上のLLMから様々な値を引き出すための生成的アプローチを導入している。
我々は,3つのコア値次元,能力,キャラクタ,積分をそれぞれ特定の部分次元で同定し,LLMが非人間的だが構造化された価値体系を持っていることを明らかにした。
論文 参考訳(メタデータ) (2024-04-19T09:44:51Z) - Improving Diversity of Demographic Representation in Large Language
Models via Collective-Critiques and Self-Voting [19.79214899011072]
本稿では,生成的大言語モデルにおける表現の多様性を形式化する。
評価データセットを提示し、人や文化軸に沿って生成された反応の多様性を測定する指標を提案する。
LLMは多様性の概念を理解し、その目標に対して自身の反応を推論し、批判することができる。
論文 参考訳(メタデータ) (2023-10-25T10:17:17Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。