論文の概要: A Proposal for Extending the Common Model of Cognition to Emotion
- arxiv url: http://arxiv.org/abs/2412.16231v1
- Date: Thu, 19 Dec 2024 00:54:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:56:58.213707
- Title: A Proposal for Extending the Common Model of Cognition to Emotion
- Title(参考訳): 認知の共通モデルを感情に拡張する一提案
- Authors: Paul S. Rosenbloom, John E. Laird, Christian Lebiere, Andrea Stocco, Richard H. Granger, Christian Huyck,
- Abstract要約: 本稿では、感情に対する認知の共通モデルの拡張を提案する。
これには、感情とメタ認知評価のための一連のモジュールが含まれる。
- 参考スコア(独自算出の注目度): 3.7494063246488607
- License:
- Abstract: Cognition and emotion must be partnered in any complete model of a humanlike mind. This article proposes an extension to the Common Model of Cognition -- a developing consensus concerning what is required in such a mind -- for emotion that includes a linked pair of modules for emotion and metacognitive assessment, plus pervasive connections between these two new modules and the Common Model's existing modules and links.
- Abstract(参考訳): 認知と感情は、人間のような心の完全なモデルにパートナーされなければならない。
本稿では、感情とメタ認知アセスメントのための一連のモジュールと、これら2つの新しいモジュールとCommon Modelの既存のモジュールとリンクとの間の広範囲な接続を含む感情に対する認知の共通モデルの拡張について提案する。
関連論文リスト
- Watch the Speakers: A Hybrid Continuous Attribution Network for Emotion
Recognition in Conversation With Emotion Disentanglement [8.17164107060944]
Emotion Recognition in Conversation (ERC) は自然言語処理分野で広く注目を集めている。
既存のERC手法では、コンテキストのモデリングが不十分なため、様々なシナリオへの一般化が困難である。
本稿では,これらの課題に対処するハイブリッド連続帰属ネットワーク(HCAN)について,感情的継続と感情的帰属の観点から紹介する。
論文 参考訳(メタデータ) (2023-09-18T14:18:16Z) - Toward a Mapping of Capability and Skill Models using Asset Administration Shells and Ontologies [41.298446203463705]
現在、モデリング機能とスキルには2つの非互換なアプローチがあります。
この2つの非互換なモデリング手法を結合する研究が進行中である。
本稿では,AASサブモデルと能力,スキルの双方向マッピングの概念を提案する。
論文 参考訳(メタデータ) (2023-07-03T08:13:48Z) - MindDial: Belief Dynamics Tracking with Theory-of-Mind Modeling for Situated Neural Dialogue Generation [62.44907105496227]
MindDialは、Mind-of-mindモデリングで位置決め自由形式の応答を生成できる、新しい対話型フレームワークである。
本研究では、話者の信念と話者の聴取者の信念を予測できる明示的なマインドモジュールを導入する。
筆者らのフレームワークは,提案手法と微調整モデルの両方に適用され,共通地盤アライメントとネゴシエーションの両方を含むシナリオで評価される。
論文 参考訳(メタデータ) (2023-06-27T07:24:32Z) - Disentangling Reasoning Capabilities from Language Models with
Compositional Reasoning Transformers [72.04044221898059]
ReasonFormerは、人間のモジュール的および構成的推論プロセスを反映するための統一的な推論フレームワークである。
表現モジュール(自動思考)と推論モジュール(制御思考)は、異なるレベルの認知を捉えるために切り離される。
統一された推論フレームワークは、単一のモデルで複数のタスクを解決し、エンドツーエンドでトレーニングされ、推論される。
論文 参考訳(メタデータ) (2022-10-20T13:39:55Z) - Modeling Intention, Emotion and External World in Dialogue Systems [14.724751780218297]
本稿では,相互関係を協調的にモデル化し,歴史的意図情報を明示的に統合するRelAtion Interaction Network(RAIN)を提案する。
データセットの実験により、我々のモデルは個人間の意図、感情、行動を完全に活用できることが示された。
論文 参考訳(メタデータ) (2022-02-14T04:10:34Z) - Modeling Associative Reasoning Processes [3.6739949215165164]
本稿では,論理的推論機構を適用して連想推論をモデル化する形式的音響手法を提案する。
意識を含む幅広い認知現象に対するモデルの有効性を示す。
論文 参考訳(メタデータ) (2022-01-03T15:38:23Z) - Emotion-aware Chat Machine: Automatic Emotional Response Generation for
Human-like Emotional Interaction [55.47134146639492]
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
実世界のデータを用いた実験により,提案手法は,コンテンツコヒーレンスと感情の適切性の両方の観点から,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T06:26:15Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - Automatic Expansion of Domain-Specific Affective Models for Web
Intelligence Applications [3.0012517171007755]
感覚コンピューティングは、異なる複雑さのよく定義された感情モデルに依存している。
洗練された機械学習アプローチと組み合わされた最もきめ細かい感情モデルでは、組織の戦略的位置決めの目標を完全に把握できないかもしれません。
本稿では、知識グラフで利用可能な共通知識と常識知識と、言語モデルと感情的推論を組み合わせた感情モデルの拡張手法を紹介する。
論文 参考訳(メタデータ) (2021-02-01T13:32:35Z) - Target Guided Emotion Aware Chat Machine [58.8346820846765]
意味レベルと感情レベルにおける投稿に対する応答の整合性は、人間のような対話を提供する対話システムにとって不可欠である。
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-11-15T01:55:37Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。