論文の概要: Large Language Models as Innovators: A Framework to Leverage Latent Space Exploration for Novelty Discovery
- arxiv url: http://arxiv.org/abs/2507.13874v1
- Date: Fri, 18 Jul 2025 12:54:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.28705
- Title: Large Language Models as Innovators: A Framework to Leverage Latent Space Exploration for Novelty Discovery
- Title(参考訳): イノベーターとしての大規模言語モデル:新規発見のための潜在宇宙探査を活用するフレームワーク
- Authors: Mateusz Bystroński, Mikołaj Hołysz, Grzegorz Piotrowski, Nitesh V. Chawla, Tomasz Kajdanowicz,
- Abstract要約: 大規模言語モデル(LLM)は、しばしば新規かつ関連する出力を生成するのに苦労する。
本稿では,モデルに依存しない潜在空間の創造性を実現するフレームワークを提案する。
- 参考スコア(独自算出の注目度): 19.394116388173885
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Innovative idea generation remains a core challenge in AI, as large language models (LLMs) often struggle to produce outputs that are both novel and relevant. Despite their fluency, LLMs tend to replicate patterns seen during training, limiting their ability to diverge creatively without extensive prompt engineering. Prior work has addressed this through domain-specific heuristics and structured prompting pipelines, but such solutions are brittle and difficult to generalize. In this paper, we propose a model-agnostic latent-space ideation framework that enables controlled, scalable creativity by navigating the continuous embedding space of ideas. Unlike prior methods, our framework requires no handcrafted rules and adapts easily to different domains, input formats, and creative tasks. This paper introduces an early-stage prototype of our method, outlining the conceptual framework and preliminary results highlighting its potential as a general-purpose co-ideator for human-AI collaboration.
- Abstract(参考訳): 大規模言語モデル(LLM)は、新規かつ関連性の高いアウトプットを生成するのにしばしば苦労するため、イノベーティブなアイデア生成はAIの中核的な課題である。
習熟度にもかかわらず、LLMはトレーニング中に見られるパターンを再現する傾向があり、広範囲のプロンプトエンジニアリングを伴わずに創造的に発散する能力を制限する。
これまでの研究では、ドメイン固有のヒューリスティックや構造化プロンプトパイプラインを通じてこの問題に対処してきたが、そのようなソリューションは脆弱で一般化が難しい。
本稿では,連続的な埋め込み空間をナビゲートすることで,制御されたスケーラブルな創造性を実現する,モデルに依存しない潜在空間の構想フレームワークを提案する。
従来の手法とは異なり、我々のフレームワークは手作りのルールを必要とせず、異なるドメインや入力形式、クリエイティブなタスクに容易に適応します。
本稿では,本手法の早期プロトタイプについて紹介し,概念的枠組みの概要と,人間とAIのコラボレーションのための汎用コイデレータとしての可能性を明らかにする予備的結果について述べる。
関連論文リスト
- Breaking Thought Patterns: A Multi-Dimensional Reasoning Framework for LLMs [3.5056249219229296]
大規模言語モデル(LLM)は、しばしば厳格な推論プロセスによって制約され、創造的な応答を生成する能力を制限する。
これを解決するために、LADDERと呼ばれる新しいフレームワークを提案し、Chain-of-Thought(CoT)推論、Mixture of Experts(MoE)モデル、多次元アップ/ダウンサンプリング戦略を組み合わせた。
論文 参考訳(メタデータ) (2025-06-16T07:59:51Z) - ModelingAgent: Bridging LLMs and Mathematical Modeling for Real-World Challenges [72.19809898215857]
ModelingBenchは、様々な領域にわたる数学モデリングの競争から、現実に着想を得たオープンエンドの問題を特徴付ける新しいベンチマークである。
これらのタスクには、自然言語を形式的な数学的定式化に翻訳し、適切なツールを適用し、構造化された防御可能なレポートを生成する必要がある。
ツール使用をコーディネートするマルチエージェントフレームワークである ModelingAgent も紹介します。
論文 参考訳(メタデータ) (2025-05-21T03:33:23Z) - Large Language Models Post-training: Surveying Techniques from Alignment to Reasoning [185.51013463503946]
大規模言語モデル(LLM)は、自然言語処理を根本的に変革し、会話システムから科学的探索まで、さまざまな領域で欠かせないものにしている。
これらの課題は、制限された推論能力、倫理的不確実性、最適なドメイン固有のパフォーマンスといった欠点に対処するために、先進的な訓練後言語モデル(PoLM)を必要とする。
本稿では,タスク固有の精度を向上するファインチューニング,倫理的コヒーレンスと人間の嗜好との整合性を保証するアライメント,報酬設計の課題によらず多段階の推論を進める推論,統合と適応の5つのパラダイムを体系的に追跡したPoLMの総合的な調査について述べる。
論文 参考訳(メタデータ) (2025-03-08T05:41:42Z) - LLM-Generated Heuristics for AI Planning: Do We Even Need Domain-Independence Anymore? [87.71321254733384]
大規模言語モデル(LLM)は、特定の計画問題に適した計画手法を生成することができる。
LLMは、いくつかの標準IPCドメインで最先端のパフォーマンスを達成することができる。
これらの結果がパラダイムシフトを意味するのか、既存の計画手法をどのように補完するかについて議論する。
論文 参考訳(メタデータ) (2025-01-30T22:21:12Z) - A Novel Idea Generation Tool using a Structured Conversational AI (CAI) System [0.0]
本稿では、初心者デザイナーを支援する創造的アイデア生成ツールとして、対話型AIを活用したアクティブなアイデア生成インタフェースを提案する。
これは動的でインタラクティブで文脈に応答するアプローチであり、人工知能(AI)における自然言語処理(NLP)の領域から大きな言語モデル(LLM)を積極的に巻き込む。
このようなAIモデルとアイデアの統合は、連続的な対話ベースのインタラクション、コンテキストに敏感な会話、多彩なアイデア生成の促進に役立つ、アクティブな理想化(Active Ideation)シナリオと呼ばれるものを生み出します。
論文 参考訳(メタデータ) (2024-09-09T16:02:27Z) - Simple Techniques for Enhancing Sentence Embeddings in Generative Language Models [3.0566617373924325]
文の埋め込みは自然言語処理の領域における基本的なタスクであり、検索エンジン、エキスパートシステム、質問・回答プラットフォームで広範囲に応用されている。
LLaMAやMistralのような大規模言語モデルの継続的な進化により、文の埋め込みに関する研究は近年顕著なブレークスルーを達成している。
PLMの生埋め込みの表現力をさらに向上する2つの革新的急進的技術技術を提案する。
論文 参考訳(メタデータ) (2024-04-05T07:07:15Z) - On the Challenges and Opportunities in Generative AI [157.96723998647363]
私たちは、現在の大規模な生成AIモデルは、ドメイン間で広く採用されるのを妨げるいくつかの根本的な欠点を示しています。
我々は、研究者に実りある研究の方向性を探るための洞察を提供することを目標とし、より堅牢でアクセスしやすい生成AIソリューションの開発を促進する。
論文 参考訳(メタデータ) (2024-02-28T15:19:33Z) - Luminate: Structured Generation and Exploration of Design Space with Large Language Models for Human-AI Co-Creation [19.62178304006683]
現在のインタラクションパラダイムは不足しており、限られたアイデアの集合に対して、ユーザを迅速なコンバージェンスへと導くものだ、と私たちは主張する。
本研究では,ユーザがシームレスに探索し,評価し,多数の応答を合成できる設計空間の構造化を促進するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-19T17:53:14Z) - Re-Reading Improves Reasoning in Large Language Models [87.46256176508376]
既成のLarge Language Models (LLM) の推論能力を高めるため, 単純で汎用的で効果的なプロンプト手法であるRe2を導入する。
CoT (Chain-of-Thought) など、ほとんどの思考を刺激する手法とは異なり、Re2 は質問を2回処理することで入力に焦点を移し、理解プロセスを強化する。
提案手法の有効性と汎用性を検証するため,14のデータセットにまたがる広範囲な推論ベンチマークでRe2を評価した。
論文 参考訳(メタデータ) (2023-09-12T14:36:23Z) - ConceptLab: Creative Concept Generation using VLM-Guided Diffusion Prior
Constraints [56.824187892204314]
我々は創造的なテキスト・画像生成の課題を提示し、幅広いカテゴリの新しいメンバーを創り出そうとする。
本稿では, 先行拡散の出力空間上での最適化プロセスとして, 創造的生成問題を定式化できることを示す。
我々は、最適化問題に新たな制約を適応的に付加する質問応答型視覚言語モデル(VLM)を導入し、よりユニークな生成物を発見するようモデルに促す。
論文 参考訳(メタデータ) (2023-08-03T17:04:41Z) - Challenges in creative generative models for music: a divergence
maximization perspective [3.655021726150369]
創造的な実践における生成機械学習モデルの開発は、芸術家、実践家、パフォーマーの間でより多くの関心を集めている。
ほとんどのモデルは、トレーニングデータセットで定義されたドメインの外にあるコンテンツを生成することができない。
本稿では,ML目的の新しい汎用的な定式化から始まる,新たな予測フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-16T12:02:43Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。