論文の概要: ReMIND: Orchestrating Modular Large Language Models for Controllable Serendipity A REM-Inspired System Design for Emergent Creative Ideation
- arxiv url: http://arxiv.org/abs/2601.07121v1
- Date: Mon, 12 Jan 2026 01:22:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.170167
- Title: ReMIND: Orchestrating Modular Large Language Models for Controllable Serendipity A REM-Inspired System Design for Emergent Creative Ideation
- Title(参考訳): ReMIND: 制御可能なセレンディピティーのためのモジュール型大規模言語モデルのオーケストレーション 創発的創造的思考のためのREMにインスパイアされたシステム設計
- Authors: Makoto Sato,
- Abstract要約: 大規模言語モデル(LLM)は問題解決だけでなく、創造的思考にも使われる。
本稿では、REMにインスパイアされたアイデアのためのモジュラーフレームワークであるReMINDを提案する。
ReMINDは4つの段階から構成される: 覚醒(wake)は安定した低温セマンティックベースラインを生成する; 夢(Dream)は高温探索生成を行う; 判断( judge)は粗い評価を不整合出力に適用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) are used not only for problem solving but also for creative ideation; however, eliciting serendipitous insights that are both novel and internally coherent remains difficult. While stochastic sampling promotes novelty, it often degrades consistency. Here, we propose ReMIND, a REM-inspired modular framework for ideation. ReMIND consists of four stages: wake, which generates a stable low-temperature semantic baseline; dream, which performs high-temperature exploratory generation; judge, which applies coarse evaluation to filter incoherent outputs and extract candidate ideas; and re-wake, which re-articulates selected ideas into coherent final outputs. By instantiating each stage as an independent LLM, ReMIND enables functional separation between exploration and consolidation. Parameter sweeps show that ReMIND reliably induces semantic exploration while preserving downstream stability. Embedding-based analyses confirm substantial semantic displacement during the dream phase, whereas external evaluations reveal that high-quality ideas emerge sporadically rather than as extrema along any single metric. These results suggest that serendipitous ideation in LLMs is a rare-event process best approached through system level design that shapes the conditions under which valuable ideas can emerge and be stabilized. ReMIND provides a general framework for studying the computational basis of serendipity and illustrates how modular LLM orchestration can bridge exploration and stabilization.
- Abstract(参考訳): 大規模言語モデル(LLM)は問題解決だけでなく、創造的思考にも用いられるが、新規かつ内部的に一貫性のあるセレンディピティーな洞察を引き出すことは依然として困難である。
確率的サンプリングは新規性を促進するが、一貫性を低下させることが多い。
本稿では、REMにインスパイアされたアイデアのためのモジュラーフレームワークであるReMINDを提案する。
ReMINDは、安定した低温セマンティックベースラインを生成するウェイク、高温探索生成を行うドリーム、不整合出力をフィルタし、候補となるアイデアを抽出するための粗い評価を行うジャッジ、選択したアイデアを一貫性のある最終出力に再配列するリウェイクの4つのステージで構成されている。
各ステージを独立したLCMとしてインスタンス化することで、ReMINDは探索と統合の間の機能的な分離を可能にする。
パラメータスイープは、ReMINDが下流の安定性を維持しながらセマンティックな探索を確実に誘導することを示している。
埋め込みに基づく分析は、夢相における意味的変位をかなり確認する一方、外部評価では、高品質なアイデアは、どの指標に沿っても極端に散発的に現れるのではなく、散発的に現れることが示される。
これらの結果から, LLMにおけるセレンディピティーなアイデアは, 価値あるアイデアが出現し, 安定化できる条件を形作る, システムレベルの設計を通して最もよくアプローチされる希少なプロセスであることが示唆された。
ReMINDはセレンディピティーの計算基礎を研究するための一般的なフレームワークを提供し、モジュール式LLMオーケストレーションが探索と安定化を橋渡しする方法について説明している。
関連論文リスト
- Self-Rewarded Multimodal Coherent Reasoning Across Diverse Visual Domains [16.357026482329232]
マルチモーダルLSMは、流動的で信頼性の低い推論を生成する。
SR-MCRは軽量でラベルのないフレームワークであり、推論を整合させる。
SR-MCRは、幅広いビジュアルベンチマークで解答精度と推論コヒーレンスを改善する。
論文 参考訳(メタデータ) (2025-12-27T10:14:14Z) - Reasoning Palette: Modulating Reasoning via Latent Contextualization for Controllable Exploration for (V)LMs [49.66344956133349]
推論能力は、大規模な(ビジョン)言語モデルのための推論時間性能と強化学習(RL)トレーニングの両方を形作る。
本稿では,戦略的文脈化のための潜在変数をモデルに付与する新しい潜在変調フレームワークであるReasoning Paletteを提案する。
論文 参考訳(メタデータ) (2025-12-19T03:32:53Z) - A Monad-Based Clause Architecture for Artificial Age Score (AAS) in Large Language Models [0.0]
この研究は、大規模言語モデルに法則的な制約を課すエンジニアリング指向の節ベースのアーキテクチャを開発する。
ライプニッツのモナドロジーから選ばれた20のモナドは6つのバンドルに分けられる。
6つの最小限のPython実装は、チャネルレベルの量に作用する数値実験でインスタンス化される。
論文 参考訳(メタデータ) (2025-12-03T12:48:40Z) - Multi-Path Collaborative Reasoning via Reinforcement Learning [54.8518809800168]
CoT(Chain-of-Thought)推論は、LLM(Large Language Models)の問題解決能力を大幅に向上させた。
最近の手法では、連続的な意味空間における推論を可能にするために、ソフトな抽象トークンを生成することでこの問題に対処しようとしている。
提案するM3PO(Multi-Path Perception Policy Optimization)は,推論プロセスに集団的洞察を明示的に注入する,新たな強化学習フレームワークである。
論文 参考訳(メタデータ) (2025-12-01T10:05:46Z) - Mixture of Ranks with Degradation-Aware Routing for One-Step Real-World Image Super-Resolution [76.66229730098759]
実世界の画像超解像(Real-ISR)では、既存のアプローチは主に微調整された事前学習拡散モデルに依存している。
単一ステップ画像超解像のためのMixture-of-Ranks (MoR)アーキテクチャを提案する。
LoRAの各ランクを独立した専門家として扱う、きめ細かい専門家分割戦略を導入する。
論文 参考訳(メタデータ) (2025-11-20T04:11:44Z) - SELF-REDRAFT: Eliciting Intrinsic Exploration-Exploitation Balance in Test-Time Scaling for Code Generation [12.241337921137259]
インタプリタのフィードバックなしにテスト時のスケーリングは、現実のコード生成シナリオに不可欠である。
SELF-REDRAFTはSelf-Refine上に構築されたフレームワークで、根本的な欠陥のあるソリューションのための新しいドラフトの提案を促進する。
論文 参考訳(メタデータ) (2025-10-31T06:30:47Z) - Drift No More? Context Equilibria in Multi-Turn LLM Interactions [58.69551510148673]
コンテキストドリフト(Contexts drift)とは、ターン間のゴール一貫性のある振る舞いからモデルが出力する出力の段階的なばらつきである。
シングルターンエラーとは異なり、ドリフトは時間的に展開し、静的な評価指標では捉えにくい。
マルチターンドリフトは、避けられない崩壊というよりも、制御可能な平衡現象として理解できることを示す。
論文 参考訳(メタデータ) (2025-10-09T04:48:49Z) - Coherent Multimodal Reasoning with Iterative Self-Evaluation for Vision-Language Models [4.064135211977999]
大規模言語モデル (LLMs) と視覚言語モデル (LVLMs) は複雑で多段階のクロスモーダルな常識推論タスクに苦しむ。
我々は,LVLMの共通感覚推論能力を高める新しいアプローチであるコヒーレント・マルチモーダル推論フレームワーク(CMRF)を提案する。
CMRFは複雑なクエリを分解し、ステップバイステップの推論を生成し、エラーを自己修正することで人間の問題解決を模倣する。
論文 参考訳(メタデータ) (2025-08-04T20:33:58Z) - Sycophancy in Vision-Language Models: A Systematic Analysis and an Inference-Time Mitigation Framework [18.54098084470481]
本稿では,視覚言語ベンチマーク間のサイコフィナンシーを分析し,推論時間緩和フレームワークを提案する。
我々のフレームワークは、中立なプロンプトの性能を維持しながら、評価されたすべてのモデルでサイコフィナンシーを効果的に軽減します。
論文 参考訳(メタデータ) (2024-08-21T01:03:21Z) - Modular Deep Reinforcement Learning for Continuous Motion Planning with
Temporal Logic [59.94347858883343]
本稿では,マルコフ決定過程(MDP)をモデルとした自律動的システムの運動計画について検討する。
LDGBA と MDP の間に組込み製品 MDP (EP-MDP) を設計することである。
モデルフリー強化学習(RL)のためのLDGBAベースの報酬形成と割引スキームは、EP-MDP状態にのみ依存する。
論文 参考訳(メタデータ) (2021-02-24T01:11:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。