論文の概要: CoMEt: x86 Cost Model Explanation Framework
- arxiv url: http://arxiv.org/abs/2302.06836v1
- Date: Tue, 14 Feb 2023 05:20:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-15 16:19:57.912045
- Title: CoMEt: x86 Cost Model Explanation Framework
- Title(参考訳): CoMEt: x86コストモデル説明フレームワーク
- Authors: Isha Chaudhary, Alex Renda, Charith Mendis, Gagandeep Singh
- Abstract要約: 本稿では,MLに基づくコストモデルによるスループット予測について,忠実で直感的な説明を得るための最初の手法を提案する。
我々は、最先端のMLベースのコストモデルであるIthemalの説明と、手作りで正確な分析モデルであるuiCAの説明を比較した。
実験の結果,Ithemal と uiCA の相似性は予測値の相似性が高いことが示唆された。
- 参考スコア(独自算出の注目度): 5.783535825165001
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: ML-based program cost models have been shown to yield highly accurate
predictions. They have the capability to replace heavily-engineered analytical
program cost models in mainstream compilers, but their black-box nature
discourages their adoption. In this work, we propose the first method for
obtaining faithful and intuitive explanations for the throughput predictions
made by ML-based cost models. We demonstrate our explanations for the
state-of-the-art ML-based cost model, Ithemal. We compare the explanations for
Ithemal with the explanations for a hand-crafted, accurate analytical model,
uiCA. Our empirical findings show that high similarity between explanations for
Ithemal and uiCA usually corresponds to high similarity between their
predictions.
- Abstract(参考訳): MLベースのプログラムコストモデルは、非常に正確な予測をもたらすことが示されている。
彼らはメインストリームのコンパイラーで、高度に設計された分析プログラムコストモデルを置き換える能力を持っているが、ブラックボックスの性質は採用を妨げている。
本研究では,MLに基づくコストモデルによるスループット予測について,忠実で直感的な説明を得るための最初の手法を提案する。
我々は最先端のMLベースのコストモデルであるIthemalについて説明する。
我々はIthemalの説明と手作りの正確な分析モデルuiCAの説明を比較した。
実験の結果,ithemal と uica の説明の類似度が高く,予測値の類似度が高いことがわかった。
関連論文リスト
- Efficiently Learning Probabilistic Logical Models by Cheaply Ranking Mined Rules [9.303501974597548]
我々は、論理規則の精度とリコールを導入し、それらの構成をルールユーティリティとして定義する。
我々は、リレーショナルデータから論理モデルを学ぶためのスケーラブルなフレームワークであるSPECTRUMを紹介する。
論文 参考訳(メタデータ) (2024-09-24T16:54:12Z) - On Least Square Estimation in Softmax Gating Mixture of Experts [78.3687645289918]
決定論的MoEモデルに基づく最小二乗推定器(LSE)の性能について検討する。
我々は,多種多様な専門家関数の収束挙動を特徴付けるために,強い識別可能性という条件を確立する。
本研究は,専門家の選択に重要な意味を持つ。
論文 参考訳(メタデータ) (2024-02-05T12:31:18Z) - Modeling Choice via Self-Attention [8.394221523847325]
注意に基づく選択モデルはHalo Multinomial Logit(Halo-MNL)モデルの低最適一般化であることを示す。
また、実データから選択を推定するための最初の現実的な尺度を確立し、既存のモデルの評価を行う。
論文 参考訳(メタデータ) (2023-11-11T11:13:07Z) - Toward a Theory of Causation for Interpreting Neural Code Models [49.906221295459275]
本稿では,ニューラルコードモデル(NCM)に特化したポストホック解釈法である$do_code$を紹介する。
$do_code$は、言語指向の説明を可能にする因果推論に基づいている。
その結果,NCMはコード構文の変化に敏感であることが判明した。
論文 参考訳(メタデータ) (2023-02-07T22:56:58Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - Great Truths are Always Simple: A Rather Simple Knowledge Encoder for
Enhancing the Commonsense Reasoning Capacity of Pre-Trained Models [89.98762327725112]
自然言語における常識推論は、人工知能システムの望ましい能力である。
複雑なコモンセンス推論タスクを解決するための典型的な解決策は、知識対応グラフニューラルネットワーク(GNN)エンコーダで事前訓練された言語モデル(PTM)を強化することである。
有効性にもかかわらず、これらのアプローチは重いアーキテクチャ上に構築されており、外部知識リソースがPTMの推論能力をどのように改善するかを明確に説明できない。
論文 参考訳(メタデータ) (2022-05-04T01:27:36Z) - Neural Closure Models for Dynamical Systems [35.000303827255024]
低忠実度モデルに対する非マルコフ閉閉パラメータ化を学習する新しい手法を開発した。
ニューラルクロージャモデル」はニューラル遅延微分方程式(nDDE)を用いた低忠実度モデルを強化する
非マルコヴィアンオーバーマルコヴィアンクロージャを使用することで、長期的精度が向上し、より小さなネットワークが必要であることを示した。
論文 参考訳(メタデータ) (2020-12-27T05:55:33Z) - Generative Temporal Difference Learning for Infinite-Horizon Prediction [101.59882753763888]
我々は、無限確率的地平線を持つ環境力学の予測モデルである$gamma$-modelを導入する。
トレーニングタイムとテストタイムの複合的なエラーの間には、そのトレーニングが避けられないトレードオフを反映しているかについて議論する。
論文 参考訳(メタデータ) (2020-10-27T17:54:12Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Amortized learning of neural causal representations [10.140457813764554]
因果モデルでは、すべての介入の下でデータ生成プロセスをコンパクトかつ効率的に符号化することができる。
これらのモデルは、しばしばベイズ的ネットワークとして表現され、変数の数に劣るスケールを学習する。
ニューラルネットワークを用いた因果モデル学習のための,テキスト因果関係ネットワーク(CRN)と呼ばれる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-21T04:35:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。