論文の概要: NL2CA: Auto-formalizing Cognitive Decision-Making from Natural Language Using an Unsupervised CriticNL2LTL Framework
- arxiv url: http://arxiv.org/abs/2512.18189v1
- Date: Sat, 20 Dec 2025 03:10:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.223443
- Title: NL2CA: Auto-formalizing Cognitive Decision-Making from Natural Language Using an Unsupervised CriticNL2LTL Framework
- Title(参考訳): NL2CA: Unsupervised CriticNL2LTLフレームワークを用いた自然言語からの認知的意思決定の自動生成
- Authors: Zihao Deng, Yijia Li, Renrui Zhang, Peijun Ye,
- Abstract要約: 自然言語記述から認知的意思決定ルールを自動生成する新しい手法であるNL2CAを提案する。
我々の手法は人間の介入なしに完全に自動化されている。
実験の結果、NL2CAはスケーラブルで、解釈可能で、人間と協調した認知モデリングを可能にすることが示された。
- 参考スコア(独自算出の注目度): 31.596282142208967
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cognitive computing models offer a formal and interpretable way to characterize human's deliberation and decision-making, yet their development remains labor-intensive. In this paper, we propose NL2CA, a novel method for auto-formalizing cognitive decision-making rules from natural language descriptions of human experience. Different from most related work that exploits either pure manual or human guided interactive modeling, our method is fully automated without any human intervention. The approach first translates text into Linear Temporal Logic (LTL) using a fine-tuned large language model (LLM), then refines the logic via an unsupervised Critic Tree, and finally transforms the output into executable production rules compatible with symbolic cognitive frameworks. Based on the resulted rules, a cognitive agent is further constructed and optimized through cognitive reinforcement learning according to the real-world behavioral data. Our method is validated in two domains: (1) NL-to-LTL translation, where our CriticNL2LTL module achieves consistent performance across both expert and large-scale benchmarks without human-in-the-loop feed-backs, and (2) cognitive driving simulation, where agents automatically constructed from human interviews have successfully learned the diverse decision patterns of about 70 trials in different critical scenarios. Experimental results demonstrate that NL2CA enables scalable, interpretable, and human-aligned cognitive modeling from unstructured textual data, offering a novel paradigm to automatically design symbolic cognitive agents.
- Abstract(参考訳): 認知コンピューティングモデルは、人間の熟考と意思決定を特徴付ける形式的で解釈可能な方法を提供するが、その開発は労働集約的のままである。
本稿では,人間の体験の自然言語記述から認知的意思決定ルールを自動生成する新しい手法であるNL2CAを提案する。
純粋な手動または人間による対話的モデリングを利用するほとんどの関連作業とは異なり、我々の手法は人間の介入なしに完全に自動化されている。
このアプローチはまず、微調整された大言語モデル(LLM)を使用してテキストをLTL(Linear Temporal Logic)に変換し、次に教師なしのCritic Treeを通じてロジックを洗練し、最後に、出力を象徴的な認知フレームワークと互換性のある実行可能な生産ルールに変換する。
得られたルールに基づいて、現実の行動データに基づいて認知強化学習により、認知エージェントがさらに構築され、最適化される。
提案手法は,(1)NL-to-LTL翻訳,(1)CriticNL2LTLモジュールが,ヒトとループのフィードバックを伴わずに,専門家と大規模ベンチマークの両方で一貫した性能を達成できる,(2)認知駆動シミュレーション,(2)人間の面接から自動的に構築されるエージェントが,異なる臨界シナリオにおける約70の試行の多様な決定パターンをうまく学習する,という2つの領域で検証されている。
実験の結果、NL2CAは、非構造化テキストデータからスケーラブルで解釈可能で、人間に沿った認知モデリングを可能にし、シンボリック認知エージェントを自動設計するための新しいパラダイムを提供する。
関連論文リスト
- Interpretable Recognition of Cognitive Distortions in Natural Language Texts [0.12891210250935145]
N-gramのような重み付けされた構造パターンに基づく自然言語テキストの多要素分類手法を提案する。
提案する認識学習アルゴリズムは,この分野における技術の現状を改善する。
この改善は2つの公開データセットでテストされており、タスクの文学的に知られたF1スコアよりも大幅に改善されている。
論文 参考訳(メタデータ) (2025-11-08T11:13:29Z) - A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - CogniDual Framework: Self-Training Large Language Models within a Dual-System Theoretical Framework for Improving Cognitive Tasks [39.43278448546028]
カーネマンの二重系理論は人間の意思決定過程を解明し、素早い直感的なシステム1と合理的なシステム2を区別する。
近年の大きな言語モデル (LLMs) は、認知タスクにおける人間レベルの習熟度に近づきやすいツールとして位置づけられている。
本研究では、自己学習を通じて、意図的な推論から直感的な応答へと進化するLLM(textbfCognidual Framework for LLMs, CFLLMs)について述べる。
論文 参考訳(メタデータ) (2024-09-05T09:33:24Z) - Rethinking ChatGPT's Success: Usability and Cognitive Behaviors Enabled by Auto-regressive LLMs' Prompting [5.344199202349884]
本研究では,2種類の大規模言語モデルと6種類のタスク固有チャネルにおけるモーダル性の構造を分析した。
本研究では,LLMにおける多様な認知行動の刺激について,自由形テキストと言語文脈の導入を通して検討する。
論文 参考訳(メタデータ) (2024-05-17T00:19:41Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z) - ChatABL: Abductive Learning via Natural Language Interaction with
ChatGPT [72.83383437501577]
大規模言語モデル(LLM)は、最近数学的な能力において大きな可能性を証明している。
LLMは現在、認識、言語理解、推論能力のブリッジングに困難を抱えている。
本稿では, LLMを帰納学習フレームワークに統合する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-21T16:23:47Z) - Structured Like a Language Model: Analysing AI as an Automated Subject [0.0]
我々は、大規模言語モデルに対する主観性の意図的な予測は、AIの振る舞いを分析できる別のフレームを生み出すことができると論じる。
我々は、最先端の自然言語処理性能を実現するシステムのリリースにおいて、言語モデルに関する短い歴史を辿る。
批判的メディア手法と精神分析理論が組み合わさって、AI駆動型言語システムの強力な新しい能力を把握するための生産的枠組みを提供すると結論付けている。
論文 参考訳(メタデータ) (2022-12-08T21:58:43Z) - Knowledge-Grounded Dialogue Generation with Pre-trained Language Models [74.09352261943911]
我々は、事前学習された言語モデルを用いた知識基底対話生成について研究する。
本稿では,知識選択モジュールを用いた事前学習言語モデルによって定義された等価応答生成を提案する。
論文 参考訳(メタデータ) (2020-10-17T16:49:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。