論文の概要: How AI Ideas Affect the Creativity, Diversity, and Evolution of Human
Ideas: Evidence From a Large, Dynamic Experiment
- arxiv url: http://arxiv.org/abs/2401.13481v1
- Date: Wed, 24 Jan 2024 14:29:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-25 14:32:24.535074
- Title: How AI Ideas Affect the Creativity, Diversity, and Evolution of Human
Ideas: Evidence From a Large, Dynamic Experiment
- Title(参考訳): AI思想が人間の思想の創造性、多様性、進化にどのように影響するか:大規模でダイナミックな実験から
- Authors: Joshua Ashkinaze, Julia Mendelsohn, Li Qiwei, Ceren Budak, Eric
Gilbert
- Abstract要約: 実験では、参加者がChatGPTまたは以前の実験参加者から得た創造的アイデアを観察し、そのアイデアをブレインストーミングした。
我々は,AI生成例数(無,低,高露出)と,その例を「AI」とラベル付けした場合(開示)に変動した。
高いAI暴露は、個々のアイデアの創造性に影響を与えるものではなく、集団的アイデアの多様性の平均的量と変化率を増加させることを発見した。
- 参考スコア(独自算出の注目度): 4.0660994249539115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Exposure to large language model output is rapidly increasing. How will
seeing AI-generated ideas affect human ideas? We conducted an experiment (800+
participants, 40+ countries) where participants viewed creative ideas that were
from ChatGPT or prior experimental participants and then brainstormed their own
idea. We varied the number of AI-generated examples (none, low, or high
exposure) and if the examples were labeled as 'AI' (disclosure). Our dynamic
experiment design -- ideas from prior participants in an experimental condition
are used as stimuli for future participants in the same experimental condition
-- mimics the interdependent process of cultural creation: creative ideas are
built upon prior ideas. Hence, we capture the compounding effects of having
LLMs 'in the culture loop'. We find that high AI exposure (but not low AI
exposure) did not affect the creativity of individual ideas but did increase
the average amount and rate of change of collective idea diversity. AI made
ideas different, not better. There were no main effects of disclosure. We also
found that self-reported creative people were less influenced by knowing an
idea was from AI, and that participants were more likely to knowingly adopt AI
ideas when the task was difficult. Our findings suggest that introducing AI
ideas into society may increase collective diversity but not individual
creativity.
- Abstract(参考訳): 大規模言語モデルの出力への露出は急速に増加している。
AIが生み出すアイデアは人間のアイデアにどのように影響するのか?
実験(800人以上、40カ国以上)を行い、参加者はChatGPTまたは先行実験参加者の創造的アイデアを観察し、そのアイデアをブレインストーミングした。
我々は,AI生成例数(無,低,高露出)と,その例が「AI」とラベル付けされている場合(開示)を変動させた。
我々の動的実験設計 - 実験条件における先行参加者のアイデアは、同じ実験条件における将来の参加者の刺激として使用されます - は、文化創造の相互依存過程を模倣します。
したがって,LLMを「培養ループ内」に組み込むことによる複合効果を捉える。
高いAI被曝は、個々のアイデアの創造性に影響を与えるものではなく、集団的アイデアの多様性の平均量と変化率を増加させることを発見した。
AIはアイデアを変えました。
開示の主な効果はなかった。
また、自己報告されたクリエイティブな人々は、アイデアがAIから来ていることを知ることの影響を受けず、参加者はタスクが難しいときにAIのアイデアを意識的に採用する傾向があったこともわかりました。
社会にaiを導入することで集団の多様性が増すが、個人の創造性は向上しないことが示唆された。
関連論文リスト
- Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Good Idea or Not, Representation of LLM Could Tell [86.36317971482755]
我々は、大規模言語モデルの知識を活用し、科学的アイデアのメリットを評価することを目的としたアイデアアセスメントに焦点をあてる。
我々は、このタスクに対する様々なアプローチのパフォーマンスを訓練し評価するために、細心の注意を払って設計された、フルテキストを持つ約4万の原稿からベンチマークデータセットをリリースする。
その結果, 大規模言語モデルの表現は, 生成出力よりもアイデアの価値を定量化する可能性が高いことが示唆された。
論文 参考訳(メタデータ) (2024-09-07T02:07:22Z) - Prompting Diverse Ideas: Increasing AI Idea Variance [0.0]
この論文は、アイデア生成プロセスの生産性と品質を高めるために、人工知能を活用することへの新たな関心を掘り下げるものである。
これまでの研究によると、AIのアイデアの平均品質は非常に高い。
以前の研究では、AIベースのブレインストーミングが、アイデアの十分な分散を生み出すことができないことも指摘されている。
論文 参考訳(メタデータ) (2024-01-27T21:02:50Z) - Can AI Be as Creative as Humans? [84.43873277557852]
理論的には、AIは人間の創造者によって生成されたデータに適切に適合できるという条件の下で、人間と同じくらい創造的になれることを証明しています。
AIの創造性に関する議論は、十分な量のデータに適合する能力の問題に縮小されている。
論文 参考訳(メタデータ) (2024-01-03T08:49:12Z) - Learning interactions to boost human creativity with bandits and GPT-4 [10.817205577415434]
我々は、人間の創造性、すなわち意味的特徴生成の限界を示す心理的タスクを採用する。
人間と言語AI(GPT-4)を用いた実験では、参加者がアルゴリズムによって生成されたヒントを要求できる変種に対して、標準タスクにおける振る舞いを対比する。
人間とAIはヒントからも同様の利点を示しており、驚くほど、AIの反応から学ぶバンディットは、人間の行動から学ぶのと同じプロンプト戦略を好む。
論文 参考訳(メタデータ) (2023-11-16T16:53:17Z) - AI for the Generation and Testing of Ideas Towards an AI Supported
Knowledge Development Environment [2.0305676256390934]
生成AIが人間のバイアスを排除してアイデア生成を促進する方法について論じる。
また、検索が事実、論理、文脈をどう検証できるかについても記述する。
本稿では,知識労働者のためのシステムであるジェネレーション・アンド・サーチ・テスト(Generate and Search Test)を紹介し,個人が効率的にソリューションを作成できるようにする。
論文 参考訳(メタデータ) (2023-07-17T22:17:40Z) - Artificial muses: Generative Artificial Intelligence Chatbots Have Risen
to Human-Level Creativity [1.332560004325655]
6つの生成人工知能(GAI)による人為的アイデアとの比較
AIと人間の創造性には質的な違いはないが、アイデアの生成方法には違いがある。
以上の結果から,GAIは創造的プロセスにおいて貴重なアシスタントであることが示唆された。
論文 参考訳(メタデータ) (2023-03-21T16:35:01Z) - Telling Creative Stories Using Generative Visual Aids [52.623545341588304]
私たちはライターに、開始プロンプトからクリエイティブなストーリーを書くように頼み、同じプロンプトから生成するAIモデルによって生成されたビジュアルを提供した。
コントロールグループと比較すると、ビジュアルをストーリー・ライティング・アシストとして使用した作家は、より創造的で、オリジナルで、完全で、視覚的にできるストーリーを著した。
発見は、AIによる横断的なモダリティ入力は、人間とAIの共創において創造性の異なる側面に利益をもたらすが、収束する思考を妨げることを示している。
論文 参考訳(メタデータ) (2021-10-27T23:13:47Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。