論文の概要: Towards a Science of Causal Interpretability in Deep Learning for Software Engineering
- arxiv url: http://arxiv.org/abs/2505.15023v1
- Date: Wed, 21 May 2025 02:13:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:58.816198
- Title: Towards a Science of Causal Interpretability in Deep Learning for Software Engineering
- Title(参考訳): ソフトウェア工学の深層学習における因果解釈可能性の科学に向けて
- Authors: David N. Palacio,
- Abstract要約: ソフトウエアエンジニアリングのための深層学習(DL4SE)における因果解釈性を達成するための論文演説
Dissertationがニューラルネットワークモデル(NCM)の新しいポストホック解釈方法であるDoCodeを導入
DoCodeは因果推論を使用して、モデル予測のプログラミング言語指向の説明を提供する。
- 参考スコア(独自算出の注目度): 0.32634122554914
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This dissertation addresses achieving causal interpretability in Deep Learning for Software Engineering (DL4SE). While Neural Code Models (NCMs) show strong performance in automating software tasks, their lack of transparency in causal relationships between inputs and outputs limits full understanding of their capabilities. To build trust in NCMs, researchers and practitioners must explain code predictions. Associational interpretability, which identifies correlations, is often insufficient for tasks requiring intervention and change analysis. To address this, the dissertation introduces DoCode, a novel post hoc interpretability method for NCMs. DoCode uses causal inference to provide programming language-oriented explanations of model predictions. It follows a four-step pipeline: modeling causal problems using Structural Causal Models (SCMs), identifying the causal estimand, estimating effects with metrics like Average Treatment Effect (ATE), and refuting effect estimates. Its framework is extensible, with an example that reduces spurious correlations by grounding explanations in programming language properties. A case study on deep code generation across interpretability scenarios and various deep learning architectures demonstrates DoCode's benefits. Results show NCMs' sensitivity to code syntax changes and their ability to learn certain programming concepts while minimizing confounding bias. The dissertation also examines associational interpretability as a foundation, analyzing software information's causal nature using tools like COMET and TraceXplainer for traceability. It highlights the need to identify code confounders and offers practical guidelines for applying causal interpretability to NCMs, contributing to more trustworthy AI in software engineering.
- Abstract(参考訳): この論文は、Deep Learning for Software Engineering (DL4SE)における因果解釈可能性を達成するためのものである。
ニューラルコードモデル(NCM)は、ソフトウェアタスクの自動化において強力なパフォーマンスを示す一方で、インプットとアウトプット間の因果関係における透明性の欠如は、その能力の完全な理解を制限する。
NCMを信頼するには、研究者と実践者はコード予測を説明する必要がある。
相関を識別するアソシエーション解釈可能性は、介入や変更分析を必要とするタスクには不十分であることが多い。
これを解決するために、論文では、NCMのための新しいポストホック解釈方法であるDoCodeを紹介している。
DoCodeは因果推論を使用して、モデル予測のプログラミング言語指向の説明を提供する。
構造因果モデル(Structure Causal Models, SCM)を用いた因果問題モデリング、因果推定、平均処理効果(Average Treatment Effect, ATE)などのメトリクスによる影響推定、反響効果推定といった4段階のパイプラインに従っている。
そのフレームワークは拡張可能であり、プログラミング言語の性質の説明を根拠にすることで、素早い相関を減少させる例がある。
解釈可能性シナリオとさまざまなディープラーニングアーキテクチャにわたるディープコード生成に関するケーススタディは、DoCodeのメリットを示している。
結果から,コード構文変化に対するNCMの感度と,相反するバイアスを最小限に抑えつつ,特定のプログラミング概念を学習する能力が示された。
この論文ではまた、ソフトウェア情報の因果性を分析し、トレーサビリティのためのCOMETやTraceXplainerといったツールを基礎として関連解釈可能性についても検討している。
コード共同設立者を特定する必要性を強調し、NCMに因果解釈性を適用するための実践的なガイドラインを提供し、ソフトウェアエンジニアリングにおいてより信頼できるAIに寄与する。
関連論文リスト
- On Explaining (Large) Language Models For Code Using Global Code-Based Explanations [45.126233498200534]
Language Models for Code (LLM4Code)は、ソフトウェア工学(SE)のランドスケープを大きく変えた。
我々は、厳密な数学的基盤を持つ手法であるコード論理(Code$Q$)を導入し、個々のコード予測を説明できるトークンのサブセットを特定する。
評価の結果、Code$Q$は意味のある入力概念(すなわち自然言語粒子)が出力生成にどのように影響するかを説明するための強力な解釈可能性法であることがわかった。
論文 参考訳(メタデータ) (2025-03-21T01:00:45Z) - When Do Program-of-Thoughts Work for Reasoning? [51.2699797837818]
本稿では,コードと推論能力の相関性を測定するために,複雑性に富んだ推論スコア(CIRS)を提案する。
具体的には、抽象構文木を用いて構造情報をエンコードし、論理的複雑性を計算する。
コードはhttps://github.com/zjunlp/EasyInstructのEasyInstructフレームワークに統合される。
論文 参考訳(メタデータ) (2023-08-29T17:22:39Z) - Toward a Theory of Causation for Interpreting Neural Code Models [49.906221295459275]
本稿では,ニューラルコードモデル(NCM)に特化したポストホック解釈法である$do_code$を紹介する。
$do_code$は、言語指向の説明を可能にする因果推論に基づいている。
その結果,NCMはコード構文の変化に敏感であることが判明した。
論文 参考訳(メタデータ) (2023-02-07T22:56:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。