論文の概要: Divergent-Convergent Thinking in Large Language Models for Creative Problem Generation
- arxiv url: http://arxiv.org/abs/2512.23601v1
- Date: Mon, 29 Dec 2025 16:53:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.587624
- Title: Divergent-Convergent Thinking in Large Language Models for Creative Problem Generation
- Title(参考訳): 創造的問題生成のための大規模言語モデルにおけるダイバージェント・コンバージェント思考
- Authors: Manh Hung Nguyen, Adish Singla,
- Abstract要約: 大規模言語モデル(LLM)は、教育的な問題や問題を生成でき、教育者が大規模な学習教材を作成できる。
LLMはArtificial Hivemindの効果によって制限され、同じモデル内で同様の応答を生成し、異なるモデル間で均質な出力を生成する。
本稿では,LCMの推論を異なる位相に明確に把握する2相プロンプト法であるCreativeDCを提案する。
- 参考スコア(独自算出の注目度): 22.659182231103443
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have significant potential for generating educational questions and problems, enabling educators to create large-scale learning materials. However, LLMs are fundamentally limited by the ``Artificial Hivemind'' effect, where they generate similar responses within the same model and produce homogeneous outputs across different models. As a consequence, students may be exposed to overly similar and repetitive LLM-generated problems, which harms diversity of thought. Drawing inspiration from Wallas's theory of creativity and Guilford's framework of divergent-convergent thinking, we propose CreativeDC, a two-phase prompting method that explicitly scaffolds the LLM's reasoning into distinct phases. By decoupling creative exploration from constraint satisfaction, our method enables LLMs to explore a broader space of ideas before committing to a final problem. We evaluate CreativeDC for creative problem generation using a comprehensive set of metrics that capture diversity, novelty, and utility. The results show that CreativeDC achieves significantly higher diversity and novelty compared to baselines while maintaining high utility. Moreover, scaling analysis shows that CreativeDC generates a larger effective number of distinct problems as more are sampled, increasing at a faster rate than baseline methods.
- Abstract(参考訳): 大規模言語モデル(LLM)は、教育的な問題や問題を生み出す大きな可能性を秘めており、教育者は大規模な学習教材を作成できる。
しかし、LLMは基本的に 'Artificial Hivemind'' 効果によって制限され、同じモデル内で同様の応答を生成し、異なるモデル間で均質な出力を生成する。
その結果、学生は過度に類似し反復的なLLM生成問題に晒され、思考の多様性を損なう可能性がある。
ワラスの創造性理論とギルフォードの発散・収束思考の枠組みからインスピレーションを得たCreativeDCを提案する。
制約満足度から創造的な探索を分離することにより,LLMは最終問題にコミットする前に,より広いアイデア空間を探索することができる。
多様性,ノベルティ,実用性を捉えた総合的なメトリクスセットを用いて,クリエイティブな問題生成のためのCreativeDCを評価した。
その結果,CreativeDCの多様性と新規性は,有効性を維持しつつも,ベースラインに比べて著しく向上していることがわかった。
さらに、スケーリング分析により、CreativeDCはサンプル数が多いほど多くの異なる問題を発生し、ベースライン法よりも速い速度で増加することが示された。
関連論文リスト
- Breaking Thought Patterns: A Multi-Dimensional Reasoning Framework for LLMs [3.5056249219229296]
大規模言語モデル(LLM)は、しばしば厳格な推論プロセスによって制約され、創造的な応答を生成する能力を制限する。
これを解決するために、LADDERと呼ばれる新しいフレームワークを提案し、Chain-of-Thought(CoT)推論、Mixture of Experts(MoE)モデル、多次元アップ/ダウンサンプリング戦略を組み合わせた。
論文 参考訳(メタデータ) (2025-06-16T07:59:51Z) - Multi-Novelty: Improve the Diversity and Novelty of Contents Generated by Large Language Models via inference-time Multi-Views Brainstorming [3.591342811819669]
LLM(Large Language Models)は、正確で流動的なテキストを生成するのに顕著な習熟度を示す。
彼らはしばしば多様性と斬新さと闘い、反復的あるいは過度に決定論的反応をもたらす。
多様な視点でインプットプロンプトを強化する新しい手法である推論時マルチビューブレインストーミング手法を導入する。
論文 参考訳(メタデータ) (2025-02-18T10:04:20Z) - A Causality-aware Paradigm for Evaluating Creativity of Multimodal Large Language Models [100.16387798660833]
オオギリゲーム(オオギリゲーム)は、ユーモアと連想的思考を必要とする創造的な仕事である。
LoTbenchはインタラクティブで因果性を考慮した評価フレームワークである。
その結果、ほとんどのLLMは制約された創造性を示すが、LLMと人間の間の性能格差は克服できないことがわかった。
論文 参考訳(メタデータ) (2025-01-25T09:11:15Z) - Benchmarking Language Model Creativity: A Case Study on Code Generation [39.546827184857754]
本研究では,LLMの創造性を定量化するフレームワークを提案する。
生成した創造的応答における収束的思考と発散的思考の両方を定量化する計量であるNEOGAUGEを定義する。
我々はCodeforcesの問題に関する提案されたフレームワークをテストする。これは、タスクをコーディングするための自然なデータセットと、先行する人間のソリューションのコレクションの両方に役立ちます。
論文 参考訳(メタデータ) (2024-07-12T05:55:22Z) - Divergent Creativity in Humans and Large Language Models [37.67363469600804]
大きな言語モデル(LLM)は、人間の能力に似た創造性レベルに近づいていると主張している。
我々は最近の計算創造性の進歩を利用して、最先端のLLMと10万人の人間のデータセットのセマンティックな相違を分析する。
我々は, LLMがダイバージェント・アソシエーション・タスクにおいて, 平均的人的パフォーマンスを上回り, 人間の創造的筆記能力にアプローチできる証拠を見出した。
論文 参考訳(メタデータ) (2024-05-13T22:37:52Z) - MacGyver: Are Large Language Models Creative Problem Solvers? [87.70522322728581]
本稿では, 現代LLMの創造的問題解決能力について, 制約付き環境下で検討する。
我々は1,600以上の実世界の問題からなる自動生成データセットであるMACGYVERを作成する。
我々はLLMと人間の両方にコレクションを提示し、それらの問題解決能力を比較して比較する。
論文 参考訳(メタデータ) (2023-11-16T08:52:27Z) - Re-Reading Improves Reasoning in Large Language Models [87.46256176508376]
既成のLarge Language Models (LLM) の推論能力を高めるため, 単純で汎用的で効果的なプロンプト手法であるRe2を導入する。
CoT (Chain-of-Thought) など、ほとんどの思考を刺激する手法とは異なり、Re2 は質問を2回処理することで入力に焦点を移し、理解プロセスを強化する。
提案手法の有効性と汎用性を検証するため,14のデータセットにまたがる広範囲な推論ベンチマークでRe2を評価した。
論文 参考訳(メタデータ) (2023-09-12T14:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。