論文の概要: Cognitive Architecture Toward Common Ground Sharing Among Humans and
Generative AIs: Trial on Model-Model Interactions in Tangram Naming Task
- arxiv url: http://arxiv.org/abs/2311.05851v1
- Date: Fri, 10 Nov 2023 03:15:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-13 15:53:19.625292
- Title: Cognitive Architecture Toward Common Ground Sharing Among Humans and
Generative AIs: Trial on Model-Model Interactions in Tangram Naming Task
- Title(参考訳): 人間と生成AIの共通基盤共有に向けた認知的アーキテクチャ:タングラムナーミングタスクにおけるモデル-モデル相互作用の試み
- Authors: Junya Morita, Tatsuya Yui, Takeru Amaya, Ryuichiro Higashinaka, Yugo
Takeuchi
- Abstract要約: 本稿では,タングラム命名タスク(TNT)をテストベッドとして,共通地層構築プロセスの検証に着目する。
本研究の予備的な結果は,タスクパフォーマンスがチャンスレベルを超えて改善したことを示している。
これらの結果は、生成AIによる共通基盤のメカニズムに関する貴重な洞察を提供する。
- 参考スコア(独自算出の注目度): 2.756147934836574
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For generative AIs to be trustworthy, establishing transparent common
grounding with humans is essential. As a preparation toward human-model common
grounding, this study examines the process of model-model common grounding. In
this context, common ground is defined as a cognitive framework shared among
agents in communication, enabling the connection of symbols exchanged between
agents to the meanings inherent in each agent. This connection is facilitated
by a shared cognitive framework among the agents involved. In this research, we
focus on the tangram naming task (TNT) as a testbed to examine the
common-ground-building process. Unlike previous models designed for this task,
our approach employs generative AIs to visualize the internal processes of the
model. In this task, the sender constructs a metaphorical image of an abstract
figure within the model and generates a detailed description based on this
image. The receiver interprets the generated description from the partner by
constructing another image and reconstructing the original abstract figure.
Preliminary results from the study show an improvement in task performance
beyond the chance level, indicating the effect of the common cognitive
framework implemented in the models. Additionally, we observed that incremental
backpropagations leveraging successful communication cases for a component of
the model led to a statistically significant increase in performance. These
results provide valuable insights into the mechanisms of common grounding made
by generative AIs, improving human communication with the evolving intelligent
machines in our future society.
- Abstract(参考訳): 生成AIが信頼できるためには、人間との透明な共通基盤を確立することが不可欠である。
本研究は,人間モデル共通接地に向けた準備として,モデルモデル共通接地プロセスについて検討する。
この文脈では、共通基盤はコミュニケーションにおいてエージェント間で共有される認知的枠組みとして定義され、エージェント間で交換されるシンボルと各エージェント固有の意味との接続を可能にする。
この接続は、関係するエージェント間の共有認知フレームワークによって促進される。
本研究では,タングラム命名タスク(TNT)に着目し,共通地盤構築過程の検証を行う。
このタスクのために設計された従来のモデルとは異なり、我々のアプローチはモデルの内部プロセスの可視化に生成AIを使用する。
この課題において、送信者はモデル内の抽象図形の比喩画像を構築し、この画像に基づいて詳細な記述を生成する。
受信者は、生成した記述を相手から解釈し、別の画像を構築し、元の抽象図形を再構成する。
本研究の予備的な結果は、モデルに実装された共通認知フレームワークの効果を示すとともに、チャンスレベルを超えたタスクパフォーマンスの向上を示す。
さらに, モデルコンポーネントの通信成功事例を活用した漸進的バックプロパゲーションにより, 統計的に顕著な性能向上が得られた。
これらの結果は、生成的AIによる共通基盤のメカニズムに関する貴重な洞察を与え、未来の社会における進化的知能機械との人間コミュニケーションを改善する。
関連論文リスト
- Towards a Unified Transformer-based Framework for Scene Graph Generation
and Human-object Interaction Detection [116.21529970404653]
本稿では,Transformerアーキテクチャに基づく一段階統一モデルであるSG2HOI+を紹介する。
本手法では,SGGとHOI検出のタスクをシームレスに統一する2つの対話型階層変換器を用いる。
提案手法は最先端のHOI法と比較して競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-03T07:25:57Z) - Conceptual Modeling and Artificial Intelligence: A Systematic Mapping
Study [0.5156484100374059]
概念モデリング(CM)では、人間は理解とコミュニケーションの手段として現実の抜粋を抽象的に表現し、機械による処理を行う。
近年、CMとAIの連携のトレンドが生まれている。
本研究は,この学際研究分野がどのように構成され,相互利益は,学間研究と今後の研究の方向性によって得られるかを示す。
論文 参考訳(メタデータ) (2023-03-12T21:23:46Z) - Joint Engagement Classification using Video Augmentation Techniques for
Multi-person Human-robot Interaction [22.73774398716566]
本稿では,親子のダイアドの交際関係を同定するための新しい枠組みを提案する。
家庭の社会ロボットと一緒に物語本を読む親のダイアドのデータセットを用いて、まずRGBフレームと骨格ベースの関節エンゲージメント認識モデルを訓練する。
第2に,ロボット親子間相互作用における学習モデルの使用に関する実験結果を示す。
論文 参考訳(メタデータ) (2022-12-28T23:52:55Z) - Knowledge Guided Bidirectional Attention Network for Human-Object
Interaction Detection [3.0915392100355192]
HOIにおけるボトムアップ構文解析戦略の独立的利用は直感に反し、注意の拡散につながる可能性があると論じる。
HOIに新たな知識誘導型トップダウンアテンションを導入し、関係解析を「ルックアンドサーチ」プロセスとしてモデル化することを提案する。
一つのエンコーダ-デコーダモデルでボトムアップとトップダウンの注意を統一することで、プロセスを実装します。
論文 参考訳(メタデータ) (2022-07-16T16:42:49Z) - AIGenC: An AI generalisation model via creativity [1.933681537640272]
本稿では,創造性に関する認知理論に触発された計算モデル(AIGenC)を紹介する。
人工エージェントが変換可能な表現を学習、使用、生成するために必要なコンポーネントを配置する。
本稿では, 人工エージェントの配当効率を向上するモデルの有効性について論じる。
論文 参考訳(メタデータ) (2022-05-19T17:43:31Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - Multi-Agent Imitation Learning with Copulas [102.27052968901894]
マルチエージェント模倣学習は、観察と行動のマッピングを学習することで、デモからタスクを実行するために複数のエージェントを訓練することを目的としている。
本稿では,確率変数間の依存を捉える強力な統計ツールである copula を用いて,マルチエージェントシステムにおける相関関係と協調関係を明示的にモデル化する。
提案モデルでは,各エージェントの局所的行動パターンと,エージェント間の依存構造のみをフルにキャプチャするコプラ関数を別々に学習することができる。
論文 参考訳(メタデータ) (2021-07-10T03:49:41Z) - Towards a Predictive Processing Implementation of the Common Model of
Cognition [79.63867412771461]
本稿では,ニューラル生成符号化とホログラフィック連想記憶に基づく認知モデルの実装について述べる。
提案システムは,多様なタスクから継続的に学習し,大規模に人的パフォーマンスをモデル化するエージェントを開発するための基盤となる。
論文 参考訳(メタデータ) (2021-05-15T22:55:23Z) - A Dependency Syntactic Knowledge Augmented Interactive Architecture for
End-to-End Aspect-based Sentiment Analysis [73.74885246830611]
エンドツーエンドABSAのためのマルチタスク学習を用いた対話型アーキテクチャを新たに提案する。
このモデルは、よく設計された依存性関係埋め込みグラフ畳み込みネットワーク(DreGcn)を活用することで、構文知識(依存性関係と型)を完全に活用することができる。
3つのベンチマークデータセットの大規模な実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-04-04T14:59:32Z) - Cascaded Human-Object Interaction Recognition [175.60439054047043]
マルチステージで粗大なHOI理解のためのカスケードアーキテクチャを提案する。
各段階で、インスタンスローカライゼーションネットワークは、HOI提案を段階的に洗練し、インタラクション認識ネットワークにフィードする。
慎重に設計された人間中心の関係機能により、これらの2つのモジュールは効果的な相互作用理解に向けて協調的に機能する。
論文 参考訳(メタデータ) (2020-03-09T17:05:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。