論文の概要: Towards Explainable Social Agent Authoring tools: A case study on
FAtiMA-Toolkit
- arxiv url: http://arxiv.org/abs/2206.03360v1
- Date: Tue, 7 Jun 2022 14:55:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-08 15:31:56.821627
- Title: Towards Explainable Social Agent Authoring tools: A case study on
FAtiMA-Toolkit
- Title(参考訳): 説明可能なソーシャルエージェントオーサリングツールを目指して:FAtiMA-Toolkitを事例として
- Authors: Manuel Guimar\~aes, Joana Campos, Pedro A. Santos, Jo\~ao Dias, Rui
Prada
- Abstract要約: ソーシャルエージェントオーサリングツールにより、シナリオデザイナは、SIAの振る舞いを高いコントロールでカスタマイズされたエクスペリエンスを作成できる。
シナリオとオーサリングの複雑さが過大評価される可能性があるため、これはコストがかかる。
本稿では,ソーシャルエージェントのオーサリングツールが理解され,解釈可能であるかどうかを分析することを目的として,説明可能なソーシャルエージェントオーサリングツールの概念を紹介した。
- 参考スコア(独自算出の注目度): 0.6667934892443214
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The deployment of Socially Intelligent Agents (SIAs) in learning environments
has proven to have several advantages in different areas of application. Social
Agent Authoring Tools allow scenario designers to create tailored experiences
with high control over SIAs behaviour, however, on the flip side, this comes at
a cost as the complexity of the scenarios and its authoring can become
overbearing. In this paper we introduce the concept of Explainable Social Agent
Authoring Tools with the goal of analysing if authoring tools for social agents
are understandable and interpretable. To this end we examine whether an
authoring tool, FAtiMA-Toolkit, is understandable and its authoring steps
interpretable, from the point-of-view of the author. We conducted two user
studies to quantitatively assess the Interpretability, Comprehensibility and
Transparency of FAtiMA-Toolkit from the perspective of a scenario designer. One
of the key findings is the fact that FAtiMA-Toolkit's conceptual model is, in
general, understandable, however the emotional-based concepts were not as
easily understood and used by the authors. Although there are some positive
aspects regarding the explainability of FAtiMA-Toolkit, there is still progress
to be made to achieve a fully explainable social agent authoring tool. We
provide a set of key concepts and possible solutions that can guide developers
to build such tools.
- Abstract(参考訳): 学習環境における社会的インテリジェントエージェント(SIAs)の展開は、様々な分野のアプリケーションにいくつかの利点があることが証明されている。
ソーシャルエージェントオーサリングツールにより、シナリオデザイナは、SIAの振る舞いを高いコントロールでカスタマイズしたエクスペリエンスを作成できるが、一方で、シナリオとオーサリングの複雑さが過大評価される可能性があるため、コストがかかる。
本稿では,ソーシャルエージェントのオーサリングツールが理解され,解釈可能であるかどうかを分析することを目的とした,説明可能なソーシャルエージェントオーサリングツールの概念を紹介する。
この目的のために、著者の視点から、著者ツールであるFAtiMA-Toolkitが理解可能かどうかを検証し、著者の解釈を行う。
シナリオデザイナの視点から,FAtiMA-Toolkitの解釈可能性,理解性,透明性を定量的に評価する2つのユーザスタディを行った。
重要な発見の1つは、FAtiMA-Toolkitの概念モデルが一般に理解可能であるという事実である。
FAtiMA-Toolkitの説明可能性にはいくつかの肯定的な側面があるが、完全に説明可能なソーシャルエージェントオーサリングツールを実現するための進展がまだある。
私たちは、開発者がそのようなツールを構築するのをガイドできる重要な概念と可能なソリューションのセットを提供します。
関連論文リスト
- Tool Learning with Large Language Models: A Survey [60.733557487886635]
大規模言語モデル(LLM)を用いたツール学習は,高度に複雑な問題に対処するLLMの能力を強化するための,有望なパラダイムとして登場した。
この分野での注目と急速な進歩にもかかわらず、現存する文献は断片化され、体系的な組織が欠如している。
論文 参考訳(メタデータ) (2024-05-28T08:01:26Z) - A Multimodal Automated Interpretability Agent [63.8551718480664]
MAIAは、ニューラルモデルを使用して、ニューラルモデル理解タスクを自動化するシステムである。
まず、画像の学習表現における(ニューロンレベルの)特徴を記述できるMAIAの能力を特徴付ける。
次に、MAIAは、刺激的な特徴に対する感度の低下と、誤分類される可能性のある入力を自動的に識別する2つの追加の解釈可能性タスクに役立てることができることを示す。
論文 参考訳(メタデータ) (2024-04-22T17:55:11Z) - Exploring Autonomous Agents through the Lens of Large Language Models: A Review [0.0]
大規模言語モデル(LLM)は人工知能を変革し、自律エージェントがさまざまなドメインで多様なタスクを実行できるようにしている。
彼らは多目的性、人的価値のアライメント、幻覚、評価といった課題に直面している。
AgentBench、WebArena、ToolLLMといった評価プラットフォームは、複雑なシナリオでこれらのエージェントを評価する堅牢な方法を提供します。
論文 参考訳(メタデータ) (2024-04-05T22:59:02Z) - Planning, Creation, Usage: Benchmarking LLMs for Comprehensive Tool Utilization in Real-World Complex Scenarios [93.68764280953624]
UltraToolは、ツール利用におけるLarge Language Modelsの能力を改善し評価するために設計された、新しいベンチマークである。
現実の複雑さを強調し、効果的な問題解決のために正確で多段階の計画を必要とする。
UltraToolの重要な特徴は、ツールの使用前に発生する自然言語による計画の独立した評価である。
論文 参考訳(メタデータ) (2024-01-30T16:52:56Z) - Tool Learning with Foundation Models [158.8640687353623]
基礎モデルの出現により、AIシステムは、人間としてのツールの使用に等しく適応できる可能性がある。
その大きな可能性にもかかわらず、この分野における重要な課題、機会、そして将来の取り組みに関する包括的な理解はいまだに欠けている。
論文 参考訳(メタデータ) (2023-04-17T15:16:10Z) - Approach Intelligent Writing Assistants Usability with Seven Stages of
Action [9.378355457555319]
我々は,知的書記アシスタントのインタラクション設計にアプローチするための枠組みとして,ノーマンの7つの行動段階を採用する。
ソフトウェアチュートリアルのオーサリングの例として,タスク記述へのフレームワークの適用性について説明する。
論文 参考訳(メタデータ) (2023-04-06T02:11:55Z) - SOCIOFILLMORE: A Tool for Discovering Perspectives [10.189255026322996]
SOCIOFILLMOREは、テキストがイベントを描写する際に表現する視点をフォアに導くのに役立つツールである。
我々のツールは、人間の判断を大量に集めることで、理論的にはフレームのセマンティクスと認知言語学に基礎を置いています。
論文 参考訳(メタデータ) (2022-03-07T14:42:22Z) - AI Explainability 360: Impact and Design [120.95633114160688]
2019年、私たちはAI Explainability 360(Arya et al. 2020)を開発しました。
本稿では,いくつかのケーススタディ,統計,コミュニティフィードバックを用いて,ツールキットが与える影響について検討する。
また,ツールキットのフレキシブルな設計,使用例,利用者が利用可能な教育資料や資料についても述べる。
論文 参考訳(メタデータ) (2021-09-24T19:17:09Z) - Can Explainable AI Explain Unfairness? A Framework for Evaluating
Explainable AI [3.4823710414760516]
モデル行動の翻訳におけるXAIツールの強みにもかかわらず、批判はXAIツールがフェアウォッシングツールとしての影響を懸念している。
私たちは、バイアスと公平性の問題を検知し、対処する能力に関して、説明可能なAIツールを評価するためのフレームワークを作成しました。
モデルの振る舞いを単純化し、説明する能力があるにもかかわらず、多くの著名なXAIツールはバイアスを検出するのに重要な機能を欠いていることがわかった。
論文 参考訳(メタデータ) (2021-06-14T15:14:03Z) - Towards Socially Intelligent Agents with Mental State Transition and
Human Utility [97.01430011496576]
対話エージェントに精神状態と実用性モデルを取り入れることを提案する。
ハイブリッド精神状態は、対話とイベント観察の両方から情報を抽出する。
ユーティリティモデルは、クラウドソースのソーシャルコモンセンスデータセットから人間の好みを学習するランキングモデルである。
論文 参考訳(メタデータ) (2021-03-12T00:06:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。