論文の概要: Self-Explanation in Social AI Agents
- arxiv url: http://arxiv.org/abs/2501.13945v1
- Date: Sun, 19 Jan 2025 03:03:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-02 08:21:53.938805
- Title: Self-Explanation in Social AI Agents
- Title(参考訳): ソーシャルAIエージェントにおける自己説明
- Authors: Rhea Basappa, Mustafa Tekman, Hong Lu, Benjamin Faught, Sandeep Kakar, Ashok K. Goel,
- Abstract要約: 本稿では,AIソーシャルアシスタントの自己モデル上でのイントロスペクションを用いた自己説明手法を提案する。
自己モデルは、エージェントのメソッドがそのタスクを達成するために知識をどのように利用するかを指定する機能モデルとして捉えられる。
我々は,AIソーシャルアシスタントの自己説明を完全性と正確性のために評価する。
- 参考スコア(独自算出の注目度): 3.6817715124929578
- License:
- Abstract: Social AI agents interact with members of a community, thereby changing the behavior of the community. For example, in online learning, an AI social assistant may connect learners and thereby enhance social interaction. These social AI assistants too need to explain themselves in order to enhance transparency and trust with the learners. We present a method of self-explanation that uses introspection over a self-model of an AI social assistant. The self-model is captured as a functional model that specifies how the methods of the agent use knowledge to achieve its tasks. The process of generating self-explanations uses Chain of Thought to reflect on the self-model and ChatGPT to provide explanations about its functioning. We evaluate the self-explanation of the AI social assistant for completeness and correctness. We also report on its deployment in a live class.
- Abstract(参考訳): ソーシャルAIエージェントはコミュニティのメンバーと対話し、コミュニティの振る舞いを変える。
例えば、オンライン学習では、AIソーシャルアシスタントが学習者を繋ぎ、それによって社会的相互作用を高めることができる。
これらのソーシャルAIアシスタントも、学習者への透明性と信頼を高めるために、自分自身を説明する必要がある。
本稿では,AIソーシャルアシスタントの自己モデル上でのイントロスペクションを用いた自己説明手法を提案する。
自己モデルは、エージェントのメソッドがそのタスクを達成するために知識をどのように利用するかを指定する機能モデルとして捉えられる。
自己説明を生成するプロセスは、自己モデルに反映するChain of Thoughtと、その機能に関する説明を提供するChatGPTを使用する。
我々は,AIソーシャルアシスタントの自己説明を完全性と正確性のために評価する。
また、ライブクラスへの展開についても報告します。
関連論文リスト
- Combining Cognitive and Generative AI for Self-explanation in Interactive AI Agents [1.1259354267881174]
本研究では、VERAのような対話型AIエージェントの自己説明のための認知AIと生成AIの収束について検討する。
認知AIの観点から、我々はVERAに、タスク-メソッド-知識(TMK)言語で表される独自の設計、知識、推論の機能モデルを与える。
生成AIの観点からは、ChatGPT、LangChain、Chain-of-Thoughtを使用して、VERA TMKモデルに基づいたユーザの質問に答える。
論文 参考訳(メタデータ) (2024-07-25T18:46:11Z) - Brain-inspired and Self-based Artificial Intelligence [23.068338822392544]
機械が人間レベルの知性を達成できるかを評価するチューリングテストは、AIのルーツのひとつです。
この論文は、現在のAIが支援している「思考機械」という概念に挑戦する。
現在の人工知能は、一見知的な情報処理であり、自分自身を真に理解したり、自覚したりしない。
論文 参考訳(メタデータ) (2024-02-29T01:15:17Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - AI Autonomy : Self-Initiated Open-World Continual Learning and
Adaptation [16.96197233523911]
本稿では,自律的かつ連続的な学習が可能なAIエージェントを構築するためのフレームワークを提案する。
重要な課題は、エージェント自身のイニシアチブで継続的に実行されるように、プロセスを自動化する方法である。
論文 参考訳(メタデータ) (2022-03-17T00:07:02Z) - Self-Initiated Open World Learning for Autonomous AI Agents [16.41396764793912]
実際にAIエージェントが使われるようになるにつれて、エージェントを完全に自律的にする方法を考える時が来た。
本稿では,自己開始型オープンワールド学習エージェントの構築研究を促進するための,この学習パラダイムの理論的枠組みを提案する。
論文 参考訳(メタデータ) (2021-10-21T18:11:02Z) - Crossing the Tepper Line: An Emerging Ontology for Describing the
Dynamic Sociality of Embodied AI [0.9176056742068814]
AIがいかに「社会的に具現化されたAI」として現れるかを示す。
私たちはこれを、人間によって社会的かつエージェント的と認識された場合、対話的なコンテキスト内でaiを「循環的に」実施する状態と定義します。
論文 参考訳(メタデータ) (2021-03-15T00:45:44Z) - Towards Socially Intelligent Agents with Mental State Transition and
Human Utility [97.01430011496576]
対話エージェントに精神状態と実用性モデルを取り入れることを提案する。
ハイブリッド精神状態は、対話とイベント観察の両方から情報を抽出する。
ユーティリティモデルは、クラウドソースのソーシャルコモンセンスデータセットから人間の好みを学習するランキングモデルである。
論文 参考訳(メタデータ) (2021-03-12T00:06:51Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z) - Watch-And-Help: A Challenge for Social Perception and Human-AI
Collaboration [116.28433607265573]
我々は、AIエージェントでソーシャルインテリジェンスをテストするための課題であるWatch-And-Help(WAH)を紹介する。
WAHでは、AIエージェントは、人間のようなエージェントが複雑な家庭用タスクを効率的に実行するのを助ける必要がある。
マルチエージェントの家庭環境であるVirtualHome-Socialを構築し、計画と学習ベースのベースラインを含むベンチマークを提供する。
論文 参考訳(メタデータ) (2020-10-19T21:48:31Z) - Emergent Social Learning via Multi-agent Reinforcement Learning [91.57176641192771]
社会学習は、人間と動物の知性の重要な構成要素である。
本稿では,独立系強化学習エージェントが,社会的学習を用いてパフォーマンスを向上させることを学べるかどうかを検討する。
論文 参考訳(メタデータ) (2020-10-01T17:54:14Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。