論文の概要: Unveiling Project-Specific Bias in Neural Code Models
- arxiv url: http://arxiv.org/abs/2201.07381v1
- Date: Wed, 19 Jan 2022 02:09:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-20 23:14:14.266248
- Title: Unveiling Project-Specific Bias in Neural Code Models
- Title(参考訳): ニューラルコードモデルにおけるProject-Specific Biasの展開
- Authors: Zhiming Li, Yanzhou Li, Tianlin Li, Mengnan Du, Bozhi Wu, Yushi Cao,
Xiaofei Xie, Yi Li, Yang Liu
- Abstract要約: ニューラルネットワークモデルは通常、実際のプロジェクト間アウトオブディストリビューション設定への一般化に失敗する。
本稿では,適切な振る舞いに基づいてモデルを推論するための規則化を行うBatch Partition Regularization(BPR)を提案する。
- 参考スコア(独自算出の注目度): 23.32441815363141
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural code models have introduced significant improvements over many
software analysis tasks like type inference, vulnerability detection, etc.
Despite the good performance of such models under the common intra-project
independent and identically distributed (IID) training and validation setting,
we observe that they usually fail to generalize to real-world inter-project
out-of-distribution (OOD) setting. In this work, we show that such phenomenon
is caused by model heavily relying on project-specific, ungeneralizable tokens
like self-defined variable and function names for downstream prediction, and we
formulate it as the project-specific bias learning behavior. We propose a
measurement to interpret such behavior, termed as Cond-Idf, which combines
co-occurrence probability and inverse document frequency to measure the level
of relatedness of token with label and its project-specificness. The
approximation indicates that without proper regularization with prior
knowledge, model tends to leverage spurious statistical cues for prediction.
Equipped with these observations, we propose a bias mitigation mechanism Batch
Partition Regularization (BPR) that regularizes model to infer based on proper
behavior by leveraging latent logic relations among samples. Experimental
results on two deep code benchmarks indicate that BPR can improve both
inter-project OOD generalization and adversarial robustness while not
sacrificing accuracy on IID data.
- Abstract(参考訳): ニューラルコードモデルは、型推論や脆弱性検出など、多くのソフトウェア分析タスクに対して大幅に改善されている。
プロジェクト内独立かつ同一分散(IID)トレーニングおよび検証設定下では,このようなモデルの性能は良好であるにもかかわらず,実際のプロジェクト間アウトオブディストリビューション(OOD)設定に一般化できないことが多い。
本研究では,プロジェクト固有の,自己定義変数や関数名などの一般化不可能なトークンを下流予測に頼り,プロジェクト固有のバイアス学習行動として定式化することで,そのような現象が引き起こされることを示す。
本研究では,共起確率と逆文書頻度を組み合わせ,トークンとラベルの関連度とそのプロジェクト固有性を測定することで,このような振る舞いをCond-Idfと呼ぶ。
この近似は、事前の知識と適切な正規化がなければ、モデルは予測に急激な統計的手がかりを利用する傾向があることを示している。
そこで本研究では, サンプル間の潜在論理関係を活用し, 適切な行動に基づいて推論するモデルを定式化するバイアス緩和機構バッチ分割正則化(bpr)を提案する。
2つのディープコードベンチマークの実験結果は、bprがiidデータの精度を犠牲にすることなく、プロジェクト間oodの一般化と敵対的ロバスト性の両方を改善できることを示している。
関連論文リスト
- Revisiting Spurious Correlation in Domain Generalization [12.745076668687748]
データ生成プロセスにおける因果関係を記述するために,構造因果モデル(SCM)を構築した。
さらに、スプリアス相関に基づくメカニズムを徹底的に分析する。
そこで本研究では,OOD一般化における共起バイアスの制御について,相対性スコア重み付き推定器を導入して提案する。
論文 参考訳(メタデータ) (2024-06-17T13:22:00Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - Think Twice: Measuring the Efficiency of Eliminating Prediction
Shortcuts of Question Answering Models [3.9052860539161918]
そこで本研究では,任意の特徴量に対するモデルのスケール依存度を簡易に測定する手法を提案する。
質問回答(QA: Question Answering)における各種事前学習モデルとデバイアス法について、既知の予測バイアスと新たに発見された予測バイアスの集合に対するロバスト性を評価する。
既存のデバイアス法は、選択された刺激的特徴への依存を軽減することができるが、これらの手法のOOD性能向上は、偏りのある特徴への依存を緩和することによって説明できない。
論文 参考訳(メタデータ) (2023-05-11T14:35:00Z) - How robust are pre-trained models to distribution shift? [82.08946007821184]
自己教師付き学習(SSL)と自己エンコーダベースモデル(AE)の相互関係が相互関係に与える影響を示す。
本研究では, 線形ヘッドの潜在バイアスから事前学習したモデルの性能を分離するために, アウト・オブ・ディストリビューション(OOD)データに基づいて訓練された線形ヘッドを用いた新しい評価手法を開発した。
論文 参考訳(メタデータ) (2022-06-17T16:18:28Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Counterfactual Maximum Likelihood Estimation for Training Deep Networks [83.44219640437657]
深層学習モデルは、予測的手がかりとして学習すべきでない急激な相関を学習する傾向がある。
本研究では,観測可能な共同設立者による相関関係の緩和を目的とした因果関係に基づくトレーニングフレームワークを提案する。
自然言語推論(NLI)と画像キャプションという2つの実世界の課題について実験を行った。
論文 参考訳(メタデータ) (2021-06-07T17:47:16Z) - Models, Pixels, and Rewards: Evaluating Design Trade-offs in Visual
Model-Based Reinforcement Learning [109.74041512359476]
視覚的MBRLアルゴリズムにおける予測モデルの設計決定について検討する。
潜在空間の使用など、しばしば重要と見なされる設計上の決定は、タスクのパフォーマンスにはほとんど影響しないことが分かりました。
我々は,この現象が探索とどのように関係しているか,および標準ベンチマークにおける下位スコーリングモデルのいくつかが,同じトレーニングデータでトレーニングされた場合のベストパフォーマンスモデルと同等の性能を発揮するかを示す。
論文 参考訳(メタデータ) (2020-12-08T18:03:21Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Ramifications of Approximate Posterior Inference for Bayesian Deep
Learning in Adversarial and Out-of-Distribution Settings [7.476901945542385]
ベイジアン深層学習モデルが従来のニューラルネットワークよりわずかに優れていることを示す。
予備的な調査は、初期化、アーキテクチャ、アクティベーション関数の選択によるバイアスの潜在的固有の役割を示している。
論文 参考訳(メタデータ) (2020-09-03T16:58:15Z) - A comprehensive study on the prediction reliability of graph neural
networks for virtual screening [0.0]
本稿では,モデルアーキテクチャ,正規化手法,損失関数が分類結果の予測性能および信頼性に与える影響について検討する。
その結果,高い成功率を達成するためには,正則化と推論手法の正しい選択が重要であることが明らかとなった。
論文 参考訳(メタデータ) (2020-03-17T10:13:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。