論文の概要: Counterfactual Explanations for Models of Code
- arxiv url: http://arxiv.org/abs/2111.05711v1
- Date: Wed, 10 Nov 2021 14:44:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-11 16:12:48.216708
- Title: Counterfactual Explanations for Models of Code
- Title(参考訳): コードのモデルに対する対実的説明
- Authors: J\"urgen Cito, Isil Dillig, Vijayaraghavan Murali, Satish Chandra
- Abstract要約: 機械学習(ML)モデルは、多くのソフトウェアエンジニアリングタスクにおいて、ますます一般的な役割を担っている。
開発者が、なぜモデルが一定の結論に達したのか、モデルの予測にどのように対応すべきかを理解するのは難しいかもしれません。
本稿では,ソースコードのモデルに対する反実的説明について考察する。
- 参考スコア(独自算出の注目度): 11.678590247866534
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Machine learning (ML) models play an increasingly prevalent role in many
software engineering tasks. However, because most models are now powered by
opaque deep neural networks, it can be difficult for developers to understand
why the model came to a certain conclusion and how to act upon the model's
prediction. Motivated by this problem, this paper explores counterfactual
explanations for models of source code. Such counterfactual explanations
constitute minimal changes to the source code under which the model "changes
its mind". We integrate counterfactual explanation generation to models of
source code in a real-world setting. We describe considerations that impact
both the ability to find realistic and plausible counterfactual explanations,
as well as the usefulness of such explanation to the user of the model. In a
series of experiments we investigate the efficacy of our approach on three
different models, each based on a BERT-like architecture operating over source
code.
- Abstract(参考訳): 機械学習(ml)モデルは、多くのソフトウェアエンジニアリングタスクにおいてますます一般的な役割を果たす。
しかし、ほとんどのモデルは今や不透明なディープニューラルネットワークを使用しているため、なぜモデルが特定の結論に達したのか、モデルの予測にどのように作用するかを開発者が理解することは困難である。
この問題に触発された本研究では,ソースコードのモデルに対する反実的説明について考察する。
このような反事実的な説明は、モデルが「考えを変える」ソースコードに対する最小限の変更を構成する。
実世界の設定でソースコードのモデルに反実的説明生成を統合する。
本稿では,現実的かつ妥当な対実的説明を見つける能力と,モデル利用者に対するそのような説明の有用性の両方に影響を及ぼす考察について述べる。
一連の実験において,ソースコード上で動作するBERTアーキテクチャに基づく3つの異なるモデルに対するアプローチの有効性について検討した。
関連論文リスト
- Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Toward a Theory of Causation for Interpreting Neural Code Models [49.906221295459275]
本稿では,ニューラルコードモデル(NCM)に特化したポストホック解釈法である$do_code$を紹介する。
$do_code$は、言語指向の説明を可能にする因果推論に基づいている。
その結果,NCMはコード構文の変化に敏感であることが判明した。
論文 参考訳(メタデータ) (2023-02-07T22:56:58Z) - OCTET: Object-aware Counterfactual Explanations [29.532969342297086]
対物的説明生成のためのオブジェクト指向フレームワークを提案する。
近年のジェネレーティブ・モデリングの成果に触発された本手法では,オブジェクトレベルの操作を容易にするために,クエリイメージを潜在空間に符号化する。
そこで本研究では,シーンを駆動する反実的説明ベンチマークの一連の実験を行い,本手法が分類を超えて適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-22T16:23:12Z) - Motif-guided Time Series Counterfactual Explanations [1.1510009152620664]
本稿では,ポストホックな反事実的説明を直感的に生成する新しいモデルを提案する。
UCRリポジトリから5つの実世界の時系列データセットを用いてモデルを検証した。
論文 参考訳(メタデータ) (2022-11-08T17:56:50Z) - Learning to Scaffold: Optimizing Model Explanations for Teaching [74.25464914078826]
我々は3つの自然言語処理とコンピュータビジョンタスクのモデルを訓練する。
筆者らは,本フレームワークで抽出した説明文を学習した学生が,従来の手法よりもはるかに効果的に教師をシミュレートできることを発見した。
論文 参考訳(メタデータ) (2022-04-22T16:43:39Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Demystifying Code Summarization Models [5.608277537412537]
我々は、極端要約、code2vec、code2seq、Sequence GNNの4つの顕著なコード要約モデルを評価する。
結果は、すべてのモデルが意味的な意味をほとんど含まない構文的および語彙的特性に基づいて予測することを示している。
本稿では,トレーニングデータのレンズを用いて,コード要約モデルの予測を説明する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T03:17:46Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。