論文の概要: Waking Up an AI: A Quantitative Framework for Prompt-Induced Phase Transition in Large Language Models
- arxiv url: http://arxiv.org/abs/2504.21012v2
- Date: Thu, 01 May 2025 14:58:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:55.042412
- Title: Waking Up an AI: A Quantitative Framework for Prompt-Induced Phase Transition in Large Language Models
- Title(参考訳): AIの覚醒: 大規模言語モデルにおけるプロンプト誘起相転移の定量的フレームワーク
- Authors: Makoto Sato,
- Abstract要約: 直感的な人間の思考の根底にあるものを研究するための2部構成の枠組みを提案する。
意味的に融合したプロンプトと非融合したプロンプトの応答性に有意な差は認められなかった。
我々の手法は、人工心と人間の心において、直観と概念的な跳躍がどのように現われるかにおいて重要な違いを照明するのに役立ちます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: What underlies intuitive human thinking? One approach to this question is to compare the cognitive dynamics of humans and large language models (LLMs). However, such a comparison requires a method to quantitatively analyze AI cognitive behavior under controlled conditions. While anecdotal observations suggest that certain prompts can dramatically change LLM behavior, these observations have remained largely qualitative. Here, we propose a two-part framework to investigate this phenomenon: a Transition-Inducing Prompt (TIP) that triggers a rapid shift in LLM responsiveness, and a Transition Quantifying Prompt (TQP) that evaluates this change using a separate LLM. Through controlled experiments, we examined how LLMs react to prompts embedding two semantically distant concepts (e.g., mathematical aperiodicity and traditional crafts)-either fused together or presented separately-by changing their linguistic quality and affective tone. Whereas humans tend to experience heightened engagement when such concepts are meaningfully blended producing a novel concept-a form of conceptual fusion-current LLMs showed no significant difference in responsiveness between semantically fused and non-fused prompts. This suggests that LLMs may not yet replicate the conceptual integration processes seen in human intuition. Our method enables fine-grained, reproducible measurement of cognitive responsiveness, and may help illuminate key differences in how intuition and conceptual leaps emerge in artificial versus human minds.
- Abstract(参考訳): 直感的な人間の思考の根底にあるものは何か?
この問題の1つのアプローチは、人間と大規模言語モデル(LLM)の認知力学を比較することである。
しかし、このような比較は、制御された条件下でのAI認知行動を定量的に分析する手法を必要とする。
逸話的な観察は、特定のプロンプトがLLMの挙動を劇的に変えることを示唆しているが、これらの観察は概ね定性的である。
本稿では,この現象を解明するための2つの枠組みを提案する: LLM応答性の急激な変化を引き起こすトランジッション・インジェクション・プロンプト(TIP)と,この変化を別個のLLMを用いて評価するトランジッション・量子化・プロンプト(TQP)である。
制御された実験を通して,LLMが2つの意味論的に離れた概念(例えば,数学的非周期性,伝統工芸品)を融合するか,あるいは言語的品質と情緒的トーンを変化させて別々に提示するかを,LLMがどのように反応するかを検討した。
このような概念が有意義にブレンドされたとき、人間はエンゲージメントを高める傾向にあったが、概念融合型LCMの形式は意味的に融合されたプロンプトと非融合されたプロンプトの応答性に有意な差は示さなかった。
このことは、LLMが人間の直観に見られる概念統合プロセスをまだ再現していないことを示唆している。
本手法は, 認知応答性の微粒化, 再現可能な測定が可能であり, 人工心と人間の心における直観と概念的飛躍の出現における重要な違いを解明する上で有効である。
関連論文リスト
- How Deep is Love in LLMs' Hearts? Exploring Semantic Size in Human-like Cognition [75.11808682808065]
本研究では,大言語モデル (LLM) が意味的サイズを理解する上で類似した傾向を示すかどうかを検討する。
以上の結果から,マルチモーダルトレーニングはLLMにとって人間的な理解を深める上で不可欠であることが示唆された。
最後に,LLMが実世界のWebショッピングシナリオにおいて,より大きなセマンティックサイズを持つ注目の見出しに影響されているかを検討する。
論文 参考訳(メタデータ) (2025-03-01T03:35:56Z) - Analyze the Neurons, not the Embeddings: Understanding When and Where LLM Representations Align with Humans [3.431979707540646]
この研究は、表現アライメントの研究に新しいアプローチを導入している。
我々は、特定の概念に責任を持つニューロンを特定するために、アクティベーションステアリングの研究からの手法を採用する。
その結果,LLM表現は行動データから推定される人間の表現と密接に一致していることが判明した。
論文 参考訳(メタデータ) (2025-02-20T23:08:03Z) - Think More, Hallucinate Less: Mitigating Hallucinations via Dual Process of Fast and Slow Thinking [124.69672273754144]
HaluSearchは、ツリー検索ベースのアルゴリズムを組み込んだ新しいフレームワークである。
テキスト生成をステップバイステップの推論プロセスとしてフレーム化する。
認知科学における二重プロセス理論に着想を得た階層的思考システムスイッチ機構を導入する。
論文 参考訳(メタデータ) (2025-01-02T15:36:50Z) - Mind Scramble: Unveiling Large Language Model Psychology Via Typoglycemia [27.650551131885152]
大規模言語モデル(LLM)の研究は、物理世界の複雑なタスクに対処する上で有望であることを示している。
GPT-4のような強力なLDMは、人間のような認知能力を示し始めていることが研究で示唆されている。
論文 参考訳(メタデータ) (2024-10-02T15:47:25Z) - CogniDual Framework: Self-Training Large Language Models within a Dual-System Theoretical Framework for Improving Cognitive Tasks [39.43278448546028]
カーネマンの二重系理論は人間の意思決定過程を解明し、素早い直感的なシステム1と合理的なシステム2を区別する。
近年の大きな言語モデル (LLMs) は、認知タスクにおける人間レベルの習熟度に近づきやすいツールとして位置づけられている。
本研究では、自己学習を通じて、意図的な推論から直感的な応答へと進化するLLM(textbfCognidual Framework for LLMs, CFLLMs)について述べる。
論文 参考訳(メタデータ) (2024-09-05T09:33:24Z) - What if...?: Thinking Counterfactual Keywords Helps to Mitigate Hallucination in Large Multi-modal Models [50.97705264224828]
大規模マルチモーダルモデルに反現実的思考を組み込む新しい手法である反現実的インセプションを提案する。
我々は、より広い文脈のシーン理解にまたがる応答をモデルが関与し、生成することを目指している。
オープンソースモデルとプロプライエタリモデルの両方を含む様々なLMMの包括的分析は、反事実的思考が幻覚を著しく減少させることを裏付ける。
論文 参考訳(メタデータ) (2024-03-20T11:27:20Z) - Uncertainty Quantification for In-Context Learning of Large Language Models [52.891205009620364]
大規模言語モデル(LLM)の画期的な能力として、文脈内学習が登場している。
両タイプの不確かさを定量化するための新しい定式化法とそれに対応する推定法を提案する。
提案手法は、プラグイン・アンド・プレイ方式でコンテキスト内学習の予測を理解するための教師なしの方法を提供する。
論文 参考訳(メタデータ) (2024-02-15T18:46:24Z) - Think Twice: Perspective-Taking Improves Large Language Models'
Theory-of-Mind Capabilities [63.90227161974381]
SimToMは、シミュレーション理論の視点取りの概念にインスパイアされた、新しいプロンプトフレームワークである。
我々のアプローチは、追加のトレーニングや最小限のプロンプトチューニングを必要とせず、既存の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-16T22:49:27Z) - AI Text-to-Behavior: A Study In Steerability [0.0]
大規模言語モデル(LLM)の操舵性に関する研究
我々は,OCEANと呼ばれる行動心理学の枠組みを用いて,モデルが調整されたプロンプトに対する応答性を定量的に測定した。
以上の結果から,GPTの汎用性と,ニュアンス命令の識別と適応能力が評価された。
論文 参考訳(メタデータ) (2023-08-07T18:14:24Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。