論文の概要: Investigating Explainability of Generative AI for Code through
Scenario-based Design
- arxiv url: http://arxiv.org/abs/2202.04903v1
- Date: Thu, 10 Feb 2022 08:52:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-12 03:25:15.886556
- Title: Investigating Explainability of Generative AI for Code through
Scenario-based Design
- Title(参考訳): シナリオベース設計によるコード生成AIの説明可能性の検討
- Authors: Jiao Sun, Q. Vera Liao, Michael Muller, Mayank Agarwal, Stephanie
Houde, Kartik Talamadupula, Justin D. Weisz
- Abstract要約: 生成AI(GenAI)技術は成熟し、ソフトウェア工学のようなアプリケーションドメインに適用されています。
私たちは43人のソフトウェアエンジニアと9つのワークショップを開催しました。そこでは、最先端のジェネレーティブAIモデルの実例を使って、ユーザの説明可能性のニーズを導き出しました。
我々の研究は、GenAIのコードに対する説明可能性の必要性を探求し、新しいドメインにおけるXAIの技術開発を人間中心のアプローチがいかに促進するかを実証する。
- 参考スコア(独自算出の注目度): 44.44517254181818
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: What does it mean for a generative AI model to be explainable? The emergent
discipline of explainable AI (XAI) has made great strides in helping people
understand discriminative models. Less attention has been paid to generative
models that produce artifacts, rather than decisions, as output. Meanwhile,
generative AI (GenAI) technologies are maturing and being applied to
application domains such as software engineering. Using scenario-based design
and question-driven XAI design approaches, we explore users' explainability
needs for GenAI in three software engineering use cases: natural language to
code, code translation, and code auto-completion. We conducted 9 workshops with
43 software engineers in which real examples from state-of-the-art generative
AI models were used to elicit users' explainability needs. Drawing from prior
work, we also propose 4 types of XAI features for GenAI for code and gathered
additional design ideas from participants. Our work explores explainability
needs for GenAI for code and demonstrates how human-centered approaches can
drive the technical development of XAI in novel domains.
- Abstract(参考訳): 生成可能なAIモデルを説明する意味は何でしょうか?
説明可能なAI(XAI)の創発的な規律は、人々が差別的モデルを理解するのを助けるために大きな進歩を遂げてきた。
意思決定よりも成果物を生成する生成モデルにはあまり注意が払われていない。
一方、生成AI(GenAI)技術は成熟し、ソフトウェア工学のようなアプリケーション領域に適用されています。
シナリオベースの設計と質問駆動型XAI設計アプローチを用いて、自然言語からコードへの変換、コードの自動補完という3つのソフトウェアエンジニアリングユースケースにおいて、GenAIのユーザによる説明可能性の必要性を探求する。
43人のソフトウェアエンジニアと9つのワークショップを実施し,最新の生成型aiモデルの実例を用いて,ユーザの説明可能性のニーズを導き出した。
事前の作業から、コードのためのGenAI用の4種類のXAI機能を提案し、参加者から新たなデザインアイデアを収集する。
我々の研究は、GenAIのコードに対する説明可能性の必要性を探求し、新しいドメインにおけるXAIの技術開発を人間中心のアプローチがいかに促進するかを示した。
関連論文リスト
- Model-based Maintenance and Evolution with GenAI: A Look into the Future [47.93555901495955]
我々は、モデルベースエンジニアリング(MBM&E)の限界に対処する手段として、生成人工知能(GenAI)を用いることができると論じる。
我々は、エンジニアの学習曲線の削減、レコメンデーションによる効率の最大化、ドメイン問題を理解するための推論ツールとしてのGenAIの使用を提案する。
論文 参考訳(メタデータ) (2024-07-09T23:13:26Z) - Legal Aspects for Software Developers Interested in Generative AI Applications [5.772982243103395]
生成人工知能(GenAI)は、高品質なコード、自然言語、画像を生成する新しい技術を生み出している。
次のステップはGenAI技術を製品に統合することです。
この記事では、データ保護と著作権という2つのリスクの現状について光を当てます。
論文 参考訳(メタデータ) (2024-04-25T14:17:34Z) - Explainable Generative AI (GenXAI): A Survey, Conceptualization, and Research Agenda [1.8592384822257952]
我々は、XAIがGenAIの台頭とともに重要になった理由とその説明可能性研究の課題について詳述する。
私たちはまた、検証可能性、対話性、セキュリティ、コストといった側面をカバーし、説明が満たすべき新しいデシラタも披露します。
論文 参考訳(メタデータ) (2024-04-15T08:18:16Z) - Designerly Understanding: Information Needs for Model Transparency to
Support Design Ideation for AI-Powered User Experience [42.73738624139124]
設計者は、事前訓練された言語モデルなどのAI技術を設計材料として理解するハードルに直面します。
これにより、AIの使用方法、場所、使用方法について、アイデアと意思決定の能力が制限される。
私たちの研究は、UXデザイナがResponsible AIで果たせる重要な役割を強調します。
論文 参考訳(メタデータ) (2023-02-21T02:06:24Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Enabling Automated Machine Learning for Model-Driven AI Engineering [60.09869520679979]
モデル駆動型ソフトウェアエンジニアリングとモデル駆動型AIエンジニアリングを実現するための新しいアプローチを提案する。
特に、私たちはAutomated MLをサポートし、AI集約システムの開発において、AIの深い知識のないソフトウェアエンジニアを支援します。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z) - Human-Centered Explainable AI (XAI): From Algorithms to User Experiences [29.10123472973571]
説明可能なAI(XAI)は近年,膨大なアルゴリズムコレクションを生み出している。
分野は学際的視点と人間中心のアプローチを受け入れ始めている。
論文 参考訳(メタデータ) (2021-10-20T21:33:46Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Questioning the AI: Informing Design Practices for Explainable AI User
Experiences [33.81809180549226]
説明可能なAI(XAI)への関心の高まりは、このトピックに関する膨大なアルゴリズム作業の収集につながった。
私たちは、説明可能なAI製品を作成するための現在のXAIアルゴリズム作業とプラクティスのギャップを特定しようとしています。
我々は,ユーザが説明責任を表現できるXAI質問バンクを開発した。
論文 参考訳(メタデータ) (2020-01-08T12:34:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。