論文の概要: Towards Explainable Social Agent Authoring tools: A case study on
FAtiMA-Toolkit
- arxiv url: http://arxiv.org/abs/2206.03360v1
- Date: Tue, 7 Jun 2022 14:55:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-08 15:31:56.821627
- Title: Towards Explainable Social Agent Authoring tools: A case study on
FAtiMA-Toolkit
- Title(参考訳): 説明可能なソーシャルエージェントオーサリングツールを目指して:FAtiMA-Toolkitを事例として
- Authors: Manuel Guimar\~aes, Joana Campos, Pedro A. Santos, Jo\~ao Dias, Rui
Prada
- Abstract要約: ソーシャルエージェントオーサリングツールにより、シナリオデザイナは、SIAの振る舞いを高いコントロールでカスタマイズされたエクスペリエンスを作成できる。
シナリオとオーサリングの複雑さが過大評価される可能性があるため、これはコストがかかる。
本稿では,ソーシャルエージェントのオーサリングツールが理解され,解釈可能であるかどうかを分析することを目的として,説明可能なソーシャルエージェントオーサリングツールの概念を紹介した。
- 参考スコア(独自算出の注目度): 0.6667934892443214
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The deployment of Socially Intelligent Agents (SIAs) in learning environments
has proven to have several advantages in different areas of application. Social
Agent Authoring Tools allow scenario designers to create tailored experiences
with high control over SIAs behaviour, however, on the flip side, this comes at
a cost as the complexity of the scenarios and its authoring can become
overbearing. In this paper we introduce the concept of Explainable Social Agent
Authoring Tools with the goal of analysing if authoring tools for social agents
are understandable and interpretable. To this end we examine whether an
authoring tool, FAtiMA-Toolkit, is understandable and its authoring steps
interpretable, from the point-of-view of the author. We conducted two user
studies to quantitatively assess the Interpretability, Comprehensibility and
Transparency of FAtiMA-Toolkit from the perspective of a scenario designer. One
of the key findings is the fact that FAtiMA-Toolkit's conceptual model is, in
general, understandable, however the emotional-based concepts were not as
easily understood and used by the authors. Although there are some positive
aspects regarding the explainability of FAtiMA-Toolkit, there is still progress
to be made to achieve a fully explainable social agent authoring tool. We
provide a set of key concepts and possible solutions that can guide developers
to build such tools.
- Abstract(参考訳): 学習環境における社会的インテリジェントエージェント(SIAs)の展開は、様々な分野のアプリケーションにいくつかの利点があることが証明されている。
ソーシャルエージェントオーサリングツールにより、シナリオデザイナは、SIAの振る舞いを高いコントロールでカスタマイズしたエクスペリエンスを作成できるが、一方で、シナリオとオーサリングの複雑さが過大評価される可能性があるため、コストがかかる。
本稿では,ソーシャルエージェントのオーサリングツールが理解され,解釈可能であるかどうかを分析することを目的とした,説明可能なソーシャルエージェントオーサリングツールの概念を紹介する。
この目的のために、著者の視点から、著者ツールであるFAtiMA-Toolkitが理解可能かどうかを検証し、著者の解釈を行う。
シナリオデザイナの視点から,FAtiMA-Toolkitの解釈可能性,理解性,透明性を定量的に評価する2つのユーザスタディを行った。
重要な発見の1つは、FAtiMA-Toolkitの概念モデルが一般に理解可能であるという事実である。
FAtiMA-Toolkitの説明可能性にはいくつかの肯定的な側面があるが、完全に説明可能なソーシャルエージェントオーサリングツールを実現するための進展がまだある。
私たちは、開発者がそのようなツールを構築するのをガイドできる重要な概念と可能なソリューションのセットを提供します。
関連論文リスト
- Planning, Creation, Usage: Benchmarking LLMs for Comprehensive Tool
Utilization in Real-World Complex Scenarios [95.97781233780357]
UltraToolは、ツール利用におけるLarge Language Modelsの能力を改善し評価するために設計された、新しいベンチマークである。
現実の複雑さを強調し、効果的な問題解決のために正確で多段階の計画を必要とする。
UltraToolの重要な特徴は、ツールの使用前に発生する自然言語による計画の独立した評価である。
論文 参考訳(メタデータ) (2024-01-30T16:52:56Z) - Explainable Authorship Identification in Cultural Heritage Applications:
Analysis of a New Perspective [48.031678295495574]
既存の汎用eXplainable Artificial Intelligence(XAI)技術のAIへの応用について検討する。
特に,3種類のAIdタスクにおける3種類のXAIテクニックの相対的メリットを評価した。
我々の分析によると、これらの技術は、説明可能なオーサシップの特定に向けて重要な第一歩を踏み出すが、まだ多くの作業が続けられている。
論文 参考訳(メタデータ) (2023-11-03T20:51:15Z) - LLM-based Interaction for Content Generation: A Case Study on the
Perception of Employees in an IT department [85.1523466539595]
本稿では,IT企業の従業員が生成ツールを使用する意図を明らかにするためのアンケート調査を行う。
以上の結果から, 生成ツールの比較的平均的な受容性が示唆されるが, ツールが有用であると認識されるほど, 意図が高くなることが示唆された。
分析の結果, 生産ツールの利用頻度は, 従業員が作業の文脈でこれらのツールをどのように認識しているかを理解する上で重要な要因である可能性が示唆された。
論文 参考訳(メタデータ) (2023-04-18T15:35:43Z) - Tool Learning with Foundation Models [114.2581831746077]
基礎モデルの出現により、AIシステムは、人間としてのツールの使用に等しく適応できる可能性がある。
その大きな可能性にもかかわらず、この分野における重要な課題、機会、そして将来の取り組みに関する包括的な理解はいまだに欠けている。
論文 参考訳(メタデータ) (2023-04-17T15:16:10Z) - Approach Intelligent Writing Assistants Usability with Seven Stages of
Action [9.378355457555319]
我々は,知的書記アシスタントのインタラクション設計にアプローチするための枠組みとして,ノーマンの7つの行動段階を採用する。
ソフトウェアチュートリアルのオーサリングの例として,タスク記述へのフレームワークの適用性について説明する。
論文 参考訳(メタデータ) (2023-04-06T02:11:55Z) - SOCIOFILLMORE: A Tool for Discovering Perspectives [10.189255026322996]
SOCIOFILLMOREは、テキストがイベントを描写する際に表現する視点をフォアに導くのに役立つツールである。
我々のツールは、人間の判断を大量に集めることで、理論的にはフレームのセマンティクスと認知言語学に基礎を置いています。
論文 参考訳(メタデータ) (2022-03-07T14:42:22Z) - AI Explainability 360: Impact and Design [120.95633114160688]
2019年、私たちはAI Explainability 360(Arya et al. 2020)を開発しました。
本稿では,いくつかのケーススタディ,統計,コミュニティフィードバックを用いて,ツールキットが与える影響について検討する。
また,ツールキットのフレキシブルな設計,使用例,利用者が利用可能な教育資料や資料についても述べる。
論文 参考訳(メタデータ) (2021-09-24T19:17:09Z) - Can Explainable AI Explain Unfairness? A Framework for Evaluating
Explainable AI [3.4823710414760516]
モデル行動の翻訳におけるXAIツールの強みにもかかわらず、批判はXAIツールがフェアウォッシングツールとしての影響を懸念している。
私たちは、バイアスと公平性の問題を検知し、対処する能力に関して、説明可能なAIツールを評価するためのフレームワークを作成しました。
モデルの振る舞いを単純化し、説明する能力があるにもかかわらず、多くの著名なXAIツールはバイアスを検出するのに重要な機能を欠いていることがわかった。
論文 参考訳(メタデータ) (2021-06-14T15:14:03Z) - Towards Socially Intelligent Agents with Mental State Transition and
Human Utility [97.01430011496576]
対話エージェントに精神状態と実用性モデルを取り入れることを提案する。
ハイブリッド精神状態は、対話とイベント観察の両方から情報を抽出する。
ユーティリティモデルは、クラウドソースのソーシャルコモンセンスデータセットから人間の好みを学習するランキングモデルである。
論文 参考訳(メタデータ) (2021-03-12T00:06:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。