論文の概要: Emergence of psychopathological computations in large language models
- arxiv url: http://arxiv.org/abs/2504.08016v1
- Date: Thu, 10 Apr 2025 15:36:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-25 06:19:01.503001
- Title: Emergence of psychopathological computations in large language models
- Title(参考訳): 大規模言語モデルにおける心理病理学的計算の創発
- Authors: Soo Yong Lee, Hyunjin Hwang, Taekwan Kim, Yuyeong Kim, Kyuri Park, Jaemin Yoo, Denny Borsboom, Kijung Shin,
- Abstract要約: 本研究では,大規模言語モデルに適用可能な心理病理の考察を行うための計算理論フレームワークを提案する。
我々の研究は、近未来の精神病理学的行動を持つAIシステムの可能性について言及している。
- 参考スコア(独自算出の注目度): 22.78614613457714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Can large language models (LLMs) implement computations of psychopathology? An effective approach to the question hinges on addressing two factors. First, for conceptual validity, we require a general and computational account of psychopathology that is applicable to computational entities without biological embodiment or subjective experience. Second, mechanisms underlying LLM behaviors need to be studied for better methodological validity. Thus, we establish a computational-theoretical framework to provide an account of psychopathology applicable to LLMs. To ground the theory for empirical analysis, we also propose a novel mechanistic interpretability method alongside a tailored empirical analytic framework. Based on the frameworks, we conduct experiments demonstrating three key claims: first, that distinct dysfunctional and problematic representational states are implemented in LLMs; second, that their activations can spread and self-sustain to trap LLMs; and third, that dynamic, cyclic structural causal models encoded in the LLMs underpin these patterns. In concert, the empirical results corroborate our hypothesis that network-theoretic computations of psychopathology have already emerged in LLMs. This suggests that certain LLM behaviors mirroring psychopathology may not be a superficial mimicry but a feature of their internal processing. Thus, our work alludes to the possibility of AI systems with psychopathological behaviors in the near future.
- Abstract(参考訳): 大規模言語モデル(LLM)は精神病理学の計算を実装できるのか?
問題に対する効果的なアプローチは、2つの要因に対処することだ。
まず、概念的妥当性について、生物学的エンボディメントや主観的経験のない計算対象に適用可能な、一般的な精神病理学の計算的説明が必要である。
第二に、LCMの行動の基礎となるメカニズムは、方法論的妥当性を高めるために研究される必要がある。
そこで我々は, LLM に適用可能な心理病理学的指標を提供するための, 計算理論の枠組みを確立した。
また, 経験分析理論を基礎として, 実験分析フレームワークを組み込んだ新しい機械的解釈可能性手法を提案する。
フレームワークに基づいて,我々は3つの重要な主張を実証する実験を行った。第1に,機能不全および問題のある表現状態がLLMに実装されていること,第2に,それらの活性化がLLMをトラップするために拡散し,自己持続可能であること,第3に,LLMに符号化された動的で循環的構造因果モデルがこれらのパターンを基盤としていること,である。
実験の結果は、ネットワーク理論による精神病理学の計算が既にLLMに現れているという我々の仮説を裏付けるものである。
このことは、精神病理を反映する特定のLCMの行動は表面的な模倣ではなく、内部処理の特徴であることを示している。
このように、我々の研究は、近未来の精神病理学的行動を伴うAIシステムの可能性について言及している。
関連論文リスト
- Comprehension Without Competence: Architectural Limits of LLMs in Symbolic Computation and Reasoning [7.996731257791417]
大型言語モデル (LLM) は、記号的推論、算術的精度、論理的整合性を必要とするタスクにおいて、表面流速が著しく低下するが、体系的に失敗する。
本稿では,このような障害の構造的診断を行い,テキスト理解とテキストコンピテンスの間に持続的なギャップがあることを明らかにする。
我々はこの現象を,命令経路と行動経路が幾何学的に,機能的に二分される計算テキストスプリット・ブレイン症候群と呼ぶ。
論文 参考訳(メタデータ) (2025-07-14T04:01:45Z) - LLMs model how humans induce logically structured rules [18.202446211409548]
長年にわたる議論は、人工知能ニューラルネットワークの計算モデルとしての妥当性に関するものだった。
ニューラルネットワークの最近の進歩、特に大規模言語モデル(LLM)の出現は、この議論において重要な変化を示している。
我々は、LLMが人間の論理的概念を説明するのに必要な原始表現と計算の新たな理論的説明をインスタンス化するかもしれないと論じる。
論文 参考訳(メタデータ) (2025-07-05T03:24:18Z) - Large Language Models as Psychological Simulators: A Methodological Guide [0.0]
本稿では,2つの主要なアプリケーションを対象とした心理シミュレータとして,大規模言語モデルを使用するためのフレームワークを提供する。
シミュレーションでは,集団的カテゴリーを超えて心理的基盤を持つペルソナを開発する手法を提案する。
我々は、素早い感度、トレーニングデータカットオフからの時間的制限、従来の人的対象のレビューを超えて広がる倫理的考慮など、包括的な課題に対処する。
論文 参考訳(メタデータ) (2025-06-20T02:45:23Z) - Computational Thinking Reasoning in Large Language Models [69.28428524878885]
計算思考モデル(CTM)は、計算思考パラダイムを大規模言語モデル(LLM)に組み込んだ新しいフレームワークである。
ライブコード実行は推論プロセスにシームレスに統合され、CTMが計算によって考えることができる。
CTMは、精度、解釈可能性、一般化可能性の観点から、従来の推論モデルとツール拡張ベースラインを上回っている。
論文 参考訳(メタデータ) (2025-06-03T09:11:15Z) - Hypothesis-Driven Theory-of-Mind Reasoning for Large Language Models [76.6028674686018]
エージェントの精神状態を追跡するための推論時間推論アルゴリズムである思考トレースを導入する。
提案アルゴリズムは,ベイズ理論をモデルとした。
本研究は,様々なベンチマークにおける思考トレーシングを評価し,大幅な性能向上を実証した。
論文 参考訳(メタデータ) (2025-02-17T15:08:50Z) - LogiDynamics: Unraveling the Dynamics of Logical Inference in Large Language Model Reasoning [49.58786377307728]
本稿では、類似推論のための制御された評価環境を導入することにより、探索的アプローチを採用する。
帰納的,帰納的,帰納的,帰納的な推論パイプラインの比較力学を解析する。
仮説選択や検証,洗練といった高度なパラダイムを考察し,論理的推論のスケールアップの可能性を明らかにする。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - Logical forms complement probability in understanding language model (and human) performance [14.694876851134273]
この研究は、自然言語で論理的推論を行う大規模言語モデルの能力を体系的に調査する。
命題論理およびモーダル論理における仮説的および解離的シロジズムの制御されたデータセットを導入する。
両者の行動データを収集・比較することにより,人間とLLMの論理的推論性能の類似点と相違点を示す。
論文 参考訳(メタデータ) (2025-02-13T18:46:44Z) - Neural DNF-MT: A Neuro-symbolic Approach for Learning Interpretable and Editable Policies [51.03989561425833]
本稿では、エンドツーエンドポリシー学習のためのニューラルDNF-MTと呼ばれるニューラルシンボリックアプローチを提案する。
ニューラルDNF-MTモデルの微分可能な性質は、訓練にディープアクター批判アルゴリズムを使用することを可能にする。
決定論的ポリシーの2値表現をどのように編集し、ニューラルモデルに組み込むかを示す。
論文 参考訳(メタデータ) (2025-01-07T15:51:49Z) - Large Language Models as Neurolinguistic Subjects: Discrepancy in Performance and Competence for Form and Meaning [49.60849499134362]
本研究では,大言語モデル(LLM)の記号化(形式)および記号化(意味)に関する言語的理解について検討する。
ミニマルペアと診断プローブを組み合わせてモデル層間のアクティベーションパターンを解析する新しい手法を用いて,ニューロ言語学的アプローチを提案する。
その結果,(1)心理言語学的・神経言語学的手法では,言語能力と能力が異なっていること,(2)直接確率測定では言語能力が正確に評価されないこと,(3)指導のチューニングでは能力が大きく変化しないが,性能は向上しないことがわかった。
論文 参考訳(メタデータ) (2024-11-12T04:16:44Z) - Failure Modes of LLMs for Causal Reasoning on Narratives [51.19592551510628]
世界の知識と論理的推論の相互作用について検討する。
最先端の大規模言語モデル(LLM)は、しばしば表面的な一般化に依存している。
タスクの単純な再構成により、より堅牢な推論行動が引き起こされることを示す。
論文 参考訳(メタデータ) (2024-10-31T12:48:58Z) - Mind Scramble: Unveiling Large Language Model Psychology Via Typoglycemia [27.650551131885152]
大規模言語モデル(LLM)の研究は、物理世界の複雑なタスクに対処する上で有望であることを示している。
GPT-4のような強力なLDMは、人間のような認知能力を示し始めていることが研究で示唆されている。
論文 参考訳(メタデータ) (2024-10-02T15:47:25Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Does Reasoning Emerge? Examining the Probabilities of Causation in Large Language Models [6.922021128239465]
AIの最近の進歩は、大規模言語モデル(LLM)の能力によって推進されている。
本稿では,LLMが実世界の推論機構をいかに効果的に再現できるかを評価することを目的とした,理論的かつ実用的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-15T15:19:11Z) - Categorical Syllogisms Revisited: A Review of the Logical Reasoning Abilities of LLMs for Analyzing Categorical Syllogism [62.571419297164645]
本稿では,分類的シロジズムを解析するための大規模言語モデルの論理的推論能力に関する先行研究を体系的に概説する。
まず、純粋に論理的な観点から分類的シロジズムの可能なバリエーションについて検討する。
次に、既存のデータセットでテストされた基本的な設定(ムードとフィギュア)を調べます。
論文 参考訳(メタデータ) (2024-06-26T21:17:20Z) - CausalGym: Benchmarking causal interpretability methods on linguistic
tasks [52.61917615039112]
CausalGymを使って、モデル動作に因果的に影響を及ぼす解釈可能性手法のベンチマークを行う。
ピチアモデル (14M--6.9B) について検討し, 幅広い解釈可能性手法の因果効果について検討した。
DASは他の手法よりも優れており、2つの困難な言語現象の学習軌跡の研究に利用している。
論文 参考訳(メタデータ) (2024-02-19T21:35:56Z) - LLM-driven Imitation of Subrational Behavior : Illusion or Reality? [3.2365468114603937]
既存の作業は、複雑な推論タスクに対処し、人間のコミュニケーションを模倣する大規模言語モデルの能力を強調している。
そこで本研究では,LLMを用いて人工人体を合成し,サブリレーショナル・エージェント・ポリシーを学習する手法を提案する。
我々は,4つの単純なシナリオを通して,サブリレータリティをモデル化するフレームワークの能力について実験的に評価した。
論文 参考訳(メタデータ) (2024-02-13T19:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。