論文の概要: Dreaming Is Not a Bug: A Jung-Inspired Dream Layer for Multi-Agent LLM Companions
- arxiv url: http://arxiv.org/abs/2601.06115v1
- Date: Sat, 03 Jan 2026 15:19:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.584069
- Title: Dreaming Is Not a Bug: A Jung-Inspired Dream Layer for Multi-Agent LLM Companions
- Title(参考訳): 夢はバグではない:マルチエージェントLLMコンパニオンのためのジャングルに触発されたドリームレイヤー
- Authors: V. Cheung,
- Abstract要約: 本稿では,LLMコンパニオンのためのJung-inspireed "Dream Layer"を提案し,学習と関係構築のリソースとして制御されたオフライン幻覚を再現する。
Dream Layerは厳密にオフラインで動作し、ロジック強化モジュールは緩和され、サンプリング温度が上昇する。
エージェントは、物語戦略において柔軟になりながら、安全上の制約に固執し続けます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inspired by a personal dream about knowledge-sharing barriers in an everyday hardware project, this paper proposes a Jung-inspired "Dream Layer" for LLM companions, reframing controlled offline hallucinations as a resource for learning and relationship-building rather than a mere reliability bug. Drawing on Jung's notion of the collective unconscious as a shared repository of archetypal forms, we introduce an Artificial Collective Unconscious (ACU): a shared dream pool where agents contribute de-identified, abstract Interaction Templates that are later re-instantiated as idiosyncratic Dream Narratives. The Dream Layer runs strictly offline: logic-enforcing modules are relaxed and sampling temperature is increased, yielding safe but deliberately bizarre narratives (e.g., travel sequences with mismatched currencies) that augment data for rare events and edge-case safety tests; to harness risk productively, we add a governance stack of strict abstraction, temporal delays, and ephemeral memory. Through behavioural simulations of everyday dialogue and long-horizon adaptation tasks, we show that the Dream Layer enables a critical decoupling: agents remain firm on safety constraints (e.g., security policies) while becoming flexible in narrative strategy (e.g., using shared archetypal metaphors to resolve deadlocks), conceptually reframing hallucination so that online, unmarked instances remain bugs, whereas bounded, marked, and delayed ones become a goldmine for synthetic scenarios and deepened companionship, echoing anti-overfitting dream mechanisms proposed in contemporary neuroscience.
- Abstract(参考訳): 日常的なハードウェアプロジェクトにおける知識共有障壁に関する個人的な夢にインスパイアされた本論文では、単に信頼性のバグではなく、学習と関係構築のためのリソースとして、制御されたオフライン幻覚をリフレーミングする「Dream Layer」を提案する。
人工集合的無意識(Artificial Collective Unconscious, ACU)は,Jungの「集合的無意識」概念を古文書形式の共有リポジトリとして用いたもので,エージェントが非識別で抽象的な相互作用テンプレートに寄与する共有ドリームプールであり,後に慣用的なドリームナラティクスとして再確立される。
ロジック強化モジュールは緩和され、サンプリング温度が上昇し、稀なイベントやエッジケースの安全性テストのためのデータを増やすような、安全だが意図的に奇妙な物語(例えば、不一致の通貨を含む旅行シーケンス)が生み出されます。
日常対話の行動シミュレーションと長期適応タスクを通じて、ドリームレイヤーは重要な疎結合を可能にしていることを示す: エージェントは安全制約(例えば、セキュリティポリシー)を固く保ちながら、物語戦略(例えば、デッドロックの解決に共有アーキペナルなメタファーを使う)において柔軟になりつつ、概念的に幻覚を再現することで、オンライン、無マークのインスタンスがバグのままであり、一方、有界、マーク、遅延のインスタンスは、合成シナリオとより深い共生のためのゴールドマインとなり、現代の神経科学で提案される反オーバーフィットの夢のメカニズムを反映している。
関連論文リスト
- SECA: Semantically Equivalent and Coherent Attacks for Eliciting LLM Hallucinations [47.0190003379175]
大規模言語モデル(LLM)は、リスクの高いドメインにますますデプロイされる。
LLMはしばしば幻覚を発生させ、その信頼性について深刻な懸念を提起する。
本稿では,幻覚を誘発するためのセマンティック・等価・コヒーレント・アタック(SECA)を提案する。
論文 参考訳(メタデータ) (2025-10-05T23:44:54Z) - Review of Hallucination Understanding in Large Language and Vision Models [65.29139004945712]
本稿では,多様なアプリケーションにまたがる画像とテキストの幻覚を特徴付けるフレームワークを提案する。
我々の調査によると、幻覚はデータ分布や遺伝バイアスの予測可能なパターンから生じることが多い。
この調査は、現実世界の生成AIシステムにおける幻覚に対するより堅牢で効果的なソリューションを開発する基盤を提供する。
論文 参考訳(メタデータ) (2025-09-26T09:23:08Z) - HEAL: An Empirical Study on Hallucinations in Embodied Agents Driven by Large Language Models [27.72821031361892]
本研究では,大規模な言語モデルにおいて,シーン・タスクの不整合下での長時間の作業を行う幻覚に関する最初の体系的研究について述べる。
私たちのゴールは、幻覚の発生範囲、どのような不整合が引き起こされるか、現在のモデルがどのように反応するかを理解することです。
論文 参考訳(メタデータ) (2025-06-18T02:13:41Z) - HalluLens: LLM Hallucination Benchmark [49.170128733508335]
大規模言語モデル(LLM)は、しばしばユーザ入力やトレーニングデータから逸脱する応答を生成する。
本稿では,新たな内因性評価タスクと既存内因性評価タスクを併用した総合幻覚ベンチマークを提案する。
論文 参考訳(メタデータ) (2025-04-24T13:40:27Z) - OPERA: Alleviating Hallucination in Multi-Modal Large Language Models
via Over-Trust Penalty and Retrospection-Allocation [124.9008419182485]
OPERA(Over-trust PenaltyとRetrospection-Allocation戦略に基づく新しいMLLM復号法)を提案する。
私たちのアプローチは、ほとんどの幻覚は自己注意行列の知識集約パターンと密接に結びついているという興味深い観察から始まります。
この観察に基づいて、OPERAは、ビーム探索復号時にモデルロジットにペナルティ項を導入し、オーバートラスト問題を緩和する。
論文 参考訳(メタデータ) (2023-11-29T18:57:07Z) - Memory semantization through perturbed and adversarial dreaming [0.7874708385247353]
本稿では, 高速眼球運動(REM)ドリームが, 効率的なメモリセマンティゼーションに欠かせないことを提案する。
我々はGAN(Generative Adversarial Network)にインスパイアされた階層的なフィードフォワードとフィードバック経路を備えた皮質アーキテクチャを実装した。
以上の結果から,REM睡眠時の敵の夢は記憶内容の抽出に不可欠であり,NREM睡眠時の夢は雑音の知覚入力に対する潜伏表現の堅牢性を向上させることが示唆された。
論文 参考訳(メタデータ) (2021-09-09T13:31:13Z) - One-shot learning of paired association navigation with biologically plausible schemas [3.990406494980651]
複数のペア・アソシエーション・ナビゲーションタスクにおける一発一発学習はスキーマに依存していると仮定されている。
生物学的に妥当なニューラル実装を持つスキーマからエージェントを構成する。
アクター・クリティカルによって補足されたスキーマは、障害が直接の進路を妨げたとしても、エージェントが成功することを示す。
論文 参考訳(メタデータ) (2021-06-07T13:03:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。