論文の概要: Large Language Models as Innovators: A Framework to Leverage Latent Space Exploration for Novelty Discovery
- arxiv url: http://arxiv.org/abs/2507.13874v1
- Date: Fri, 18 Jul 2025 12:54:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.28705
- Title: Large Language Models as Innovators: A Framework to Leverage Latent Space Exploration for Novelty Discovery
- Title(参考訳): イノベーターとしての大規模言語モデル:新規発見のための潜在宇宙探査を活用するフレームワーク
- Authors: Mateusz Bystroński, Mikołaj Hołysz, Grzegorz Piotrowski, Nitesh V. Chawla, Tomasz Kajdanowicz,
- Abstract要約: 大規模言語モデル(LLM)は、しばしば新規かつ関連する出力を生成するのに苦労する。
本稿では,モデルに依存しない潜在空間の創造性を実現するフレームワークを提案する。
- 参考スコア(独自算出の注目度): 19.394116388173885
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Innovative idea generation remains a core challenge in AI, as large language models (LLMs) often struggle to produce outputs that are both novel and relevant. Despite their fluency, LLMs tend to replicate patterns seen during training, limiting their ability to diverge creatively without extensive prompt engineering. Prior work has addressed this through domain-specific heuristics and structured prompting pipelines, but such solutions are brittle and difficult to generalize. In this paper, we propose a model-agnostic latent-space ideation framework that enables controlled, scalable creativity by navigating the continuous embedding space of ideas. Unlike prior methods, our framework requires no handcrafted rules and adapts easily to different domains, input formats, and creative tasks. This paper introduces an early-stage prototype of our method, outlining the conceptual framework and preliminary results highlighting its potential as a general-purpose co-ideator for human-AI collaboration.
- Abstract(参考訳): 大規模言語モデル(LLM)は、新規かつ関連性の高いアウトプットを生成するのにしばしば苦労するため、イノベーティブなアイデア生成はAIの中核的な課題である。
習熟度にもかかわらず、LLMはトレーニング中に見られるパターンを再現する傾向があり、広範囲のプロンプトエンジニアリングを伴わずに創造的に発散する能力を制限する。
これまでの研究では、ドメイン固有のヒューリスティックや構造化プロンプトパイプラインを通じてこの問題に対処してきたが、そのようなソリューションは脆弱で一般化が難しい。
本稿では,連続的な埋め込み空間をナビゲートすることで,制御されたスケーラブルな創造性を実現する,モデルに依存しない潜在空間の構想フレームワークを提案する。
従来の手法とは異なり、我々のフレームワークは手作りのルールを必要とせず、異なるドメインや入力形式、クリエイティブなタスクに容易に適応します。
本稿では,本手法の早期プロトタイプについて紹介し,概念的枠組みの概要と,人間とAIのコラボレーションのための汎用コイデレータとしての可能性を明らかにする予備的結果について述べる。
関連論文リスト
- Top 10 Open Challenges Steering the Future of Diffusion Language Model and Its Variants [85.33837131101342]
本稿では,基盤基盤,アルゴリズム最適化,認知推論,統合マルチモーダルインテリジェンスという4つの柱で構成された戦略ロードマップを提案する。
この移行は、複雑な構造的推論、動的自己補正、シームレスなマルチモーダル統合が可能な次世代AIの開発に不可欠である、と我々は主張する。
論文 参考訳(メタデータ) (2026-01-20T14:58:23Z) - Exploration vs. Fixation: Scaffolding Divergent and Convergent Thinking for Human-AI Co-Creation with Generative Models [26.911618039280665]
本稿では,プロセス指向の人間とAIの共創パラダイムを提案する。
我々のパラダイムは、初期の散逸した思考段階における概念概念の高レベルな探索と、後の収束した思考フレーズにおける変化の低レベルな探索の両方である。
本稿では、HAIExploreと広く使われている線形チャットインタフェース(ChatGPT)を比較して、クリエイティブな画像生成を行う。
論文 参考訳(メタデータ) (2025-12-20T14:58:41Z) - Universe of Thoughts: Enabling Creative Reasoning with Large Language Models [1.9480051045857554]
認知科学の原理に触発された創造的推論のための計算フレームワークを導入する。
本稿では,テキスト探索,テキスト変換,テキストUoTという3つの中心的創造的推論パラダイムを提案する。
UoTは創造的推論において優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-11-25T16:34:59Z) - NExT-OMNI: Towards Any-to-Any Omnimodal Foundation Models with Discrete Flow Matching [64.10695425442164]
NExT-OMNI(英語版)は、離散フローパラダイムによる統一モデリングを実現するオープンソース・オムニモーダル・ファンデーション・モデルである。
NExT-OMNIは、大規模なインターリーブ付きテキスト、画像、ビデオ、オーディオデータに基づいて訓練され、マルチモーダル生成および理解ベンチマーク上で競合するパフォーマンスを提供する。
さらなる研究を進めるために、トレーニングの詳細、データプロトコル、およびコードとモデルチェックポイントの両方をオープンソース化する。
論文 参考訳(メタデータ) (2025-10-15T16:25:18Z) - A Survey of Vibe Coding with Large Language Models [93.88284590533242]
視覚符号化(Vibe Coding)は、開発者が成果観察を通じてAI生成の実装を検証する開発手法である。
変革の可能性にもかかわらず、この創発的パラダイムの有効性は未解明のままである。
この調査は、大規模な言語モデルによるVibe Codingの総合的かつ体系的なレビューを初めて提供する。
論文 参考訳(メタデータ) (2025-10-14T11:26:56Z) - Combinatorial Creativity: A New Frontier in Generalization Abilities [14.121904952399975]
大規模言語モデル(LLM)における創造性のスケーリング挙動について検討する。
固定的な計算予算では、創造力に最適なモデル深さと幅が存在することが分かりました。
LLMは新たな科学的アイデアの創出に長けつつ,現実的な実現性確保に苦慮しているため,創造性アルゴリズムの基本的な新規性・実用性トレードオフ特性によって説明できる可能性が示唆された。
論文 参考訳(メタデータ) (2025-09-25T11:48:37Z) - Breaking Thought Patterns: A Multi-Dimensional Reasoning Framework for LLMs [3.5056249219229296]
大規模言語モデル(LLM)は、しばしば厳格な推論プロセスによって制約され、創造的な応答を生成する能力を制限する。
これを解決するために、LADDERと呼ばれる新しいフレームワークを提案し、Chain-of-Thought(CoT)推論、Mixture of Experts(MoE)モデル、多次元アップ/ダウンサンプリング戦略を組み合わせた。
論文 参考訳(メタデータ) (2025-06-16T07:59:51Z) - Continual Learning for Generative AI: From LLMs to MLLMs and Beyond [56.29231194002407]
本稿では,主流生成型AIモデルに対する連続学習手法の総合的な調査を行う。
これらのアプローチをアーキテクチャベース、正規化ベース、リプレイベースという3つのパラダイムに分類する。
我々は、トレーニング目標、ベンチマーク、コアバックボーンを含む、異なる生成モデルに対する連続的な学習設定を分析する。
論文 参考訳(メタデータ) (2025-06-16T02:27:25Z) - ModelingAgent: Bridging LLMs and Mathematical Modeling for Real-World Challenges [72.19809898215857]
ModelingBenchは、様々な領域にわたる数学モデリングの競争から、現実に着想を得たオープンエンドの問題を特徴付ける新しいベンチマークである。
これらのタスクには、自然言語を形式的な数学的定式化に翻訳し、適切なツールを適用し、構造化された防御可能なレポートを生成する必要がある。
ツール使用をコーディネートするマルチエージェントフレームワークである ModelingAgent も紹介します。
論文 参考訳(メタデータ) (2025-05-21T03:33:23Z) - Large Language Models Post-training: Surveying Techniques from Alignment to Reasoning [185.51013463503946]
大規模言語モデル(LLM)は、自然言語処理を根本的に変革し、会話システムから科学的探索まで、さまざまな領域で欠かせないものにしている。
これらの課題は、制限された推論能力、倫理的不確実性、最適なドメイン固有のパフォーマンスといった欠点に対処するために、先進的な訓練後言語モデル(PoLM)を必要とする。
本稿では,タスク固有の精度を向上するファインチューニング,倫理的コヒーレンスと人間の嗜好との整合性を保証するアライメント,報酬設計の課題によらず多段階の推論を進める推論,統合と適応の5つのパラダイムを体系的に追跡したPoLMの総合的な調査について述べる。
論文 参考訳(メタデータ) (2025-03-08T05:41:42Z) - LLM-Generated Heuristics for AI Planning: Do We Even Need Domain-Independence Anymore? [87.71321254733384]
大規模言語モデル(LLM)は、特定の計画問題に適した計画手法を生成することができる。
LLMは、いくつかの標準IPCドメインで最先端のパフォーマンスを達成することができる。
これらの結果がパラダイムシフトを意味するのか、既存の計画手法をどのように補完するかについて議論する。
論文 参考訳(メタデータ) (2025-01-30T22:21:12Z) - A Novel Idea Generation Tool using a Structured Conversational AI (CAI) System [0.0]
本稿では、初心者デザイナーを支援する創造的アイデア生成ツールとして、対話型AIを活用したアクティブなアイデア生成インタフェースを提案する。
これは動的でインタラクティブで文脈に応答するアプローチであり、人工知能(AI)における自然言語処理(NLP)の領域から大きな言語モデル(LLM)を積極的に巻き込む。
このようなAIモデルとアイデアの統合は、連続的な対話ベースのインタラクション、コンテキストに敏感な会話、多彩なアイデア生成の促進に役立つ、アクティブな理想化(Active Ideation)シナリオと呼ばれるものを生み出します。
論文 参考訳(メタデータ) (2024-09-09T16:02:27Z) - Simple Techniques for Enhancing Sentence Embeddings in Generative Language Models [3.0566617373924325]
文の埋め込みは自然言語処理の領域における基本的なタスクであり、検索エンジン、エキスパートシステム、質問・回答プラットフォームで広範囲に応用されている。
LLaMAやMistralのような大規模言語モデルの継続的な進化により、文の埋め込みに関する研究は近年顕著なブレークスルーを達成している。
PLMの生埋め込みの表現力をさらに向上する2つの革新的急進的技術技術を提案する。
論文 参考訳(メタデータ) (2024-04-05T07:07:15Z) - On the Challenges and Opportunities in Generative AI [157.96723998647363]
私たちは、現在の大規模な生成AIモデルは、ドメイン間で広く採用されるのを妨げるいくつかの根本的な欠点を示しています。
我々は、研究者に実りある研究の方向性を探るための洞察を提供することを目標とし、より堅牢でアクセスしやすい生成AIソリューションの開発を促進する。
論文 参考訳(メタデータ) (2024-02-28T15:19:33Z) - Luminate: Structured Generation and Exploration of Design Space with Large Language Models for Human-AI Co-Creation [19.62178304006683]
現在のインタラクションパラダイムは不足しており、限られたアイデアの集合に対して、ユーザを迅速なコンバージェンスへと導くものだ、と私たちは主張する。
本研究では,ユーザがシームレスに探索し,評価し,多数の応答を合成できる設計空間の構造化を促進するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-19T17:53:14Z) - Re-Reading Improves Reasoning in Large Language Models [87.46256176508376]
既成のLarge Language Models (LLM) の推論能力を高めるため, 単純で汎用的で効果的なプロンプト手法であるRe2を導入する。
CoT (Chain-of-Thought) など、ほとんどの思考を刺激する手法とは異なり、Re2 は質問を2回処理することで入力に焦点を移し、理解プロセスを強化する。
提案手法の有効性と汎用性を検証するため,14のデータセットにまたがる広範囲な推論ベンチマークでRe2を評価した。
論文 参考訳(メタデータ) (2023-09-12T14:36:23Z) - ConceptLab: Creative Concept Generation using VLM-Guided Diffusion Prior
Constraints [56.824187892204314]
我々は創造的なテキスト・画像生成の課題を提示し、幅広いカテゴリの新しいメンバーを創り出そうとする。
本稿では, 先行拡散の出力空間上での最適化プロセスとして, 創造的生成問題を定式化できることを示す。
我々は、最適化問題に新たな制約を適応的に付加する質問応答型視覚言語モデル(VLM)を導入し、よりユニークな生成物を発見するようモデルに促す。
論文 参考訳(メタデータ) (2023-08-03T17:04:41Z) - Challenges in creative generative models for music: a divergence
maximization perspective [3.655021726150369]
創造的な実践における生成機械学習モデルの開発は、芸術家、実践家、パフォーマーの間でより多くの関心を集めている。
ほとんどのモデルは、トレーニングデータセットで定義されたドメインの外にあるコンテンツを生成することができない。
本稿では,ML目的の新しい汎用的な定式化から始まる,新たな予測フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-16T12:02:43Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。