論文の概要: Investigating Explainability of Generative AI for Code through
Scenario-based Design
- arxiv url: http://arxiv.org/abs/2202.04903v1
- Date: Thu, 10 Feb 2022 08:52:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-12 03:25:15.886556
- Title: Investigating Explainability of Generative AI for Code through
Scenario-based Design
- Title(参考訳): シナリオベース設計によるコード生成AIの説明可能性の検討
- Authors: Jiao Sun, Q. Vera Liao, Michael Muller, Mayank Agarwal, Stephanie
Houde, Kartik Talamadupula, Justin D. Weisz
- Abstract要約: 生成AI(GenAI)技術は成熟し、ソフトウェア工学のようなアプリケーションドメインに適用されています。
私たちは43人のソフトウェアエンジニアと9つのワークショップを開催しました。そこでは、最先端のジェネレーティブAIモデルの実例を使って、ユーザの説明可能性のニーズを導き出しました。
我々の研究は、GenAIのコードに対する説明可能性の必要性を探求し、新しいドメインにおけるXAIの技術開発を人間中心のアプローチがいかに促進するかを実証する。
- 参考スコア(独自算出の注目度): 44.44517254181818
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: What does it mean for a generative AI model to be explainable? The emergent
discipline of explainable AI (XAI) has made great strides in helping people
understand discriminative models. Less attention has been paid to generative
models that produce artifacts, rather than decisions, as output. Meanwhile,
generative AI (GenAI) technologies are maturing and being applied to
application domains such as software engineering. Using scenario-based design
and question-driven XAI design approaches, we explore users' explainability
needs for GenAI in three software engineering use cases: natural language to
code, code translation, and code auto-completion. We conducted 9 workshops with
43 software engineers in which real examples from state-of-the-art generative
AI models were used to elicit users' explainability needs. Drawing from prior
work, we also propose 4 types of XAI features for GenAI for code and gathered
additional design ideas from participants. Our work explores explainability
needs for GenAI for code and demonstrates how human-centered approaches can
drive the technical development of XAI in novel domains.
- Abstract(参考訳): 生成可能なAIモデルを説明する意味は何でしょうか?
説明可能なAI(XAI)の創発的な規律は、人々が差別的モデルを理解するのを助けるために大きな進歩を遂げてきた。
意思決定よりも成果物を生成する生成モデルにはあまり注意が払われていない。
一方、生成AI(GenAI)技術は成熟し、ソフトウェア工学のようなアプリケーション領域に適用されています。
シナリオベースの設計と質問駆動型XAI設計アプローチを用いて、自然言語からコードへの変換、コードの自動補完という3つのソフトウェアエンジニアリングユースケースにおいて、GenAIのユーザによる説明可能性の必要性を探求する。
43人のソフトウェアエンジニアと9つのワークショップを実施し,最新の生成型aiモデルの実例を用いて,ユーザの説明可能性のニーズを導き出した。
事前の作業から、コードのためのGenAI用の4種類のXAI機能を提案し、参加者から新たなデザインアイデアを収集する。
我々の研究は、GenAIのコードに対する説明可能性の必要性を探求し、新しいドメインにおけるXAIの技術開発を人間中心のアプローチがいかに促進するかを示した。
関連論文リスト
- Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - Designerly Understanding: Information Needs for Model Transparency to
Support Design Ideation for AI-Powered User Experience [42.73738624139124]
設計者は、事前訓練された言語モデルなどのAI技術を設計材料として理解するハードルに直面します。
これにより、AIの使用方法、場所、使用方法について、アイデアと意思決定の能力が制限される。
私たちの研究は、UXデザイナがResponsible AIで果たせる重要な役割を強調します。
論文 参考訳(メタデータ) (2023-02-21T02:06:24Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Explainable Artificial Intelligence (XAI) for Internet of Things: A
Survey [1.7205106391379026]
人工知能(AI)モデルのブラックボックスの性質は、ユーザーがそのようなモデルによって生成された出力を理解し、時には信頼することを許さない。
結果だけでなく、結果への決定パスも重要なAIアプリケーションでは、このようなブラックボックスAIモデルは不十分である。
説明可能な人工知能(XAI)は、この問題に対処し、ユーザによって解釈される一連のAIモデルを定義する。
論文 参考訳(メタデータ) (2022-06-07T08:22:30Z) - Enabling Automated Machine Learning for Model-Driven AI Engineering [60.09869520679979]
モデル駆動型ソフトウェアエンジニアリングとモデル駆動型AIエンジニアリングを実現するための新しいアプローチを提案する。
特に、私たちはAutomated MLをサポートし、AI集約システムの開発において、AIの深い知識のないソフトウェアエンジニアを支援します。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z) - Human-Centered Explainable AI (XAI): From Algorithms to User Experiences [29.10123472973571]
説明可能なAI(XAI)は近年,膨大なアルゴリズムコレクションを生み出している。
分野は学際的視点と人間中心のアプローチを受け入れ始めている。
論文 参考訳(メタデータ) (2021-10-20T21:33:46Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Question-Driven Design Process for Explainable AI User Experiences [12.883597052015109]
デザイナーは、最適なXAI技術を選択し、それらをUXソリューションに変換する方法の課題に取り組んでいます。
本稿では,ユーザのニーズ,XAI技術の選択,設計,XAI UXの評価を基礎とした質問駆動設計プロセスを提案する。
設計者とAIエンジニアのコラボレーションを支援するバウンダリオブジェクトとして、原型的ユーザ質問とXAI技術の例の間のマッピングガイドを提供します。
論文 参考訳(メタデータ) (2021-04-08T02:51:36Z) - Questioning the AI: Informing Design Practices for Explainable AI User
Experiences [33.81809180549226]
説明可能なAI(XAI)への関心の高まりは、このトピックに関する膨大なアルゴリズム作業の収集につながった。
私たちは、説明可能なAI製品を作成するための現在のXAIアルゴリズム作業とプラクティスのギャップを特定しようとしています。
我々は,ユーザが説明責任を表現できるXAI質問バンクを開発した。
論文 参考訳(メタデータ) (2020-01-08T12:34:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。