論文の概要: Explainability via Responsibility
- arxiv url: http://arxiv.org/abs/2010.01676v1
- Date: Sun, 4 Oct 2020 20:41:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 03:48:56.619273
- Title: Explainability via Responsibility
- Title(参考訳): 責任による説明可能性
- Authors: Faraz Khadivpour and Matthew Guzdial
- Abstract要約: 本稿では,特定のトレーニングインスタンスをユーザに提供する,説明可能な人工知能へのアプローチを提案する。
我々は、AIエージェントの動作の説明を人間のユーザに提供する能力を近似することで、このアプローチを評価する。
- 参考スコア(独自算出の注目度): 0.9645196221785693
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Procedural Content Generation via Machine Learning (PCGML) refers to a group
of methods for creating game content (e.g. platformer levels, game maps, etc.)
using machine learning models. PCGML approaches rely on black box models, which
can be difficult to understand and debug by human designers who do not have
expert knowledge about machine learning. This can be even more tricky in
co-creative systems where human designers must interact with AI agents to
generate game content. In this paper we present an approach to explainable
artificial intelligence in which certain training instances are offered to
human users as an explanation for the AI agent's actions during a co-creation
process. We evaluate this approach by approximating its ability to provide
human users with the explanations of AI agent's actions and helping them to
more efficiently cooperate with the AI agent.
- Abstract(参考訳): 機械学習による手続き的コンテンツ生成(PCGML)は、機械学習モデルを用いてゲームコンテンツ(例えば、プラットフォームレベル、ゲームマップなど)を作成するための一連の方法である。
PCGMLアプローチはブラックボックスモデルに依存しており、機械学習に関する専門知識を持たない人間設計者による理解とデバッグが難しい。
これは、人間のデザイナーがAIエージェントと対話してゲームコンテンツを生成する、共同創造システムにおいてさらに難しい。
本稿では,共創過程におけるAIエージェントの動作の説明として,特定のトレーニングインスタンスをユーザに提供する,説明可能な人工知能へのアプローチを提案する。
このアプローチは、aiエージェントのアクションの説明を人間ユーザーに提供し、aiエージェントとより効率的に協力できるようにする能力を近似して評価する。
関連論文リスト
- Explaining Explaining [0.882727051273924]
高度なAIシステムに自信を持つ人々にとって、説明は鍵となる。
マシンラーニングベースのシステムは、通常はブラックボックスであるため、説明できない。
認知エージェント開発におけるハイブリッドアプローチについて述べる。
論文 参考訳(メタデータ) (2024-09-26T16:55:44Z) - Combining Cognitive and Generative AI for Self-explanation in Interactive AI Agents [1.1259354267881174]
本研究では、VERAのような対話型AIエージェントの自己説明のための認知AIと生成AIの収束について検討する。
認知AIの観点から、我々はVERAに、タスク-メソッド-知識(TMK)言語で表される独自の設計、知識、推論の機能モデルを与える。
生成AIの観点からは、ChatGPT、LangChain、Chain-of-Thoughtを使用して、VERA TMKモデルに基づいたユーザの質問に答える。
論文 参考訳(メタデータ) (2024-07-25T18:46:11Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - Explainability Via Causal Self-Talk [9.149689942389923]
AIシステムの振る舞いを説明することは、実際には一般的に避けられる重要な問題である。
私たちは、すべてのデシダータを満たす効果的な方法を説明します。AIシステムをトレーニングして、それ自体の因果モデルを構築します。
この手法をシミュレーションした3次元環境に実装し、エージェントが忠実で意味論的に意味のある説明を生成する方法を示す。
論文 参考訳(メタデータ) (2022-11-17T23:17:01Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - The MineRL BASALT Competition on Learning from Human Feedback [58.17897225617566]
MineRL BASALTコンペティションは、この重要な種類の技術の研究を促進することを目的としている。
Minecraftでは、ハードコードされた報酬関数を書くのが難しいと期待する4つのタスクのスイートを設計しています。
これら4つのタスクのそれぞれについて、人間のデモのデータセットを提供するとともに、模擬学習ベースラインを提供する。
論文 参考訳(メタデータ) (2021-07-05T12:18:17Z) - Who is this Explanation for? Human Intelligence and Knowledge Graphs for
eXplainable AI [0.0]
我々は、eXplainable AIにヒューマンインテリジェンスがもたらす貢献に焦点を当てる。
我々は、知識表現と推論、社会科学、人間計算、人間-機械協調研究とのより優れた相互作用を求めている。
論文 参考訳(メタデータ) (2020-05-27T10:47:15Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。