論文の概要: Thermodynamics-inspired Explanations of Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2206.13475v3
- Date: Mon, 8 Apr 2024 23:41:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-10 20:55:40.651395
- Title: Thermodynamics-inspired Explanations of Artificial Intelligence
- Title(参考訳): 熱力学にインスパイアされた人工知能の解説
- Authors: Shams Mehdi, Pratyush Tiwary,
- Abstract要約: 我々は、AIと他のブラックボックスパラダイム(TERP)の説明可能な表現を提示する。
TERPは、モデルに依存しない方法でブラックボックス予測のための正確で人間の解釈可能な説明を生成する方法である。
TERPの広範囲な適用性を実証するため,様々なブラックボックスモデルアーキテクチャの解説に成功している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, predictive machine learning methods have gained prominence in various scientific domains. However, due to their black-box nature, it is essential to establish trust in these models before accepting them as accurate. One promising strategy for assigning trust involves employing explanation techniques that elucidate the rationale behind a black-box model's predictions in a manner that humans can understand. However, assessing the degree of human interpretability of the rationale generated by such methods is a nontrivial challenge. In this work, we introduce interpretation entropy as a universal solution for assessing the degree of human interpretability associated with any linear model. Using this concept and drawing inspiration from classical thermodynamics, we present Thermodynamics-inspired Explainable Representations of AI and other black-box Paradigms (TERP), a method for generating accurate, and human-interpretable explanations for black-box predictions in a model-agnostic manner. To demonstrate the wide-ranging applicability of TERP, we successfully employ it to explain various black-box model architectures, including deep learning Autoencoders, Recurrent Neural Networks, and Convolutional Neural Networks, across diverse domains such as molecular simulations, text, and image classification.
- Abstract(参考訳): 近年,様々な分野において予測機械学習手法が注目されている。
しかしながら、ブラックボックスの性質のため、これらのモデルに正確性を受け入れる前に信頼を確立することが不可欠である。
信頼を割り当てるための有望な戦略の1つは、人間が理解できる方法でブラックボックスモデルの予測の背後にある根拠を解明する説明技法を採用することである。
しかし、そのような方法によって生成される論理の人間の解釈可能性の度合いを評価することは、非常に難しい課題である。
本研究では,任意の線形モデルに関連する人間の解釈可能性の程度を評価するための普遍解として解釈エントロピーを導入する。
この概念を応用し、古典的熱力学からインスピレーションを得た、モデルに依存しない方法でブラックボックス予測のための正確で人間の解釈可能な説明を生成する方法である、AIや他のブラックボックスパラダイムの説明可能な表現(TERP)を提示する。
TERPの広範適用性を実証するため,分子シミュレーションやテキスト,画像分類など,ディープラーニングオートエンコーダ,リカレントニューラルネットワーク,畳み込みニューラルネットワークなど,さまざまなブラックボックスモデルアーキテクチャの解説に成功している。
関連論文リスト
- Learning Discrete Concepts in Latent Hierarchical Models [73.01229236386148]
自然の高次元データから学習する概念は、ヒューマンアライメントと解釈可能な機械学習モデルの構築の可能性を秘めている。
我々は概念を階層的因果モデルを通して関連付けられた離散潜在因果変数として定式化する。
我々は、理論的な主張を合成データ実験で裏付ける。
論文 参考訳(メタデータ) (2024-06-01T18:01:03Z) - Interpretable Machine Learning for Weather and Climate Prediction: A Survey [24.028385794099435]
気象予測に適用された現在の解釈可能な機械学習手法について概説する。
ツリーアンサンブルや説明可能なニューラルネットワークといったアーキテクチャを使って、スクラッチから本質的に解釈可能なモデルを設計する。
物理原理に沿ったより深い機械的解釈を達成するための研究課題について論じる。
論文 参考訳(メタデータ) (2024-03-24T14:23:35Z) - ContPhy: Continuum Physical Concept Learning and Reasoning from Videos [86.63174804149216]
ContPhyは、マシン物理常識を評価するための新しいベンチマークである。
私たちは、さまざまなAIモデルを評価し、ContPhyで満足なパフォーマンスを達成するのに依然として苦労していることがわかった。
また、近年の大規模言語モデルとパーティクルベースの物理力学モデルを組み合わせるためのオラクルモデル(ContPRO)を導入する。
論文 参考訳(メタデータ) (2024-02-09T01:09:21Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Concept backpropagation: An Explainable AI approach for visualising
learned concepts in neural network models [0.0]
本稿では,ある概念を表す情報が与えられたニューラルネットワークモデルにどのように内在化されているかを分析する方法として,Emphconcept backpropagationという概念検出手法の拡張を提案する。
論文 参考訳(メタデータ) (2023-07-24T08:21:13Z) - On Modifying a Neural Network's Perception [3.42658286826597]
本研究では,人間の定義した概念に対して,人工ニューラルネットワークが知覚しているものを修正する手法を提案する。
提案手法を異なるモデルで検証し、実行された操作がモデルによって適切に解釈されているかどうかを評価し、それらに対してどのように反応するかを解析する。
論文 参考訳(メタデータ) (2023-03-05T12:09:37Z) - Hessian-based toolbox for reliable and interpretable machine learning in
physics [58.720142291102135]
本稿では,モデルアーキテクチャの解釈可能性と信頼性,外挿を行うためのツールボックスを提案する。
与えられたテストポイントでの予測に対する入力データの影響、モデル予測の不確実性の推定、およびモデル予測の不可知スコアを提供する。
我々の研究は、物理学やより一般的には科学に適用されたMLにおける解釈可能性と信頼性の方法の体系的利用への道を開く。
論文 参考訳(メタデータ) (2021-08-04T16:32:59Z) - Formalising Concepts as Grounded Abstractions [68.24080871981869]
このレポートは、表現学習が生データから概念を誘導する方法を示しています。
このレポートの主な技術的目標は、表現学習のテクニックが概念空間の格子理論的定式化とどのように結婚できるかを示すことである。
論文 参考訳(メタデータ) (2021-01-13T15:22:01Z) - Physics-Constrained Predictive Molecular Latent Space Discovery with
Graph Scattering Variational Autoencoder [0.0]
我々は小データ構造における変分推論とグラフ理論に基づく分子生成モデルを開発する。
モデルの性能は、所望の目的特性を持つ分子を生成することによって評価される。
論文 参考訳(メタデータ) (2020-09-29T09:05:27Z) - Scientific Discovery by Generating Counterfactuals using Image
Translation [5.820406793815877]
本稿では,説明手法から発見機構へ予測を変換する枠組みを提案する。
ブラックボックス予測器と組み合わせた生成モデルを用いて、批判的に検証できる仮説を生成する方法を示す。
提案手法は,モデルの性能と人間の理解のギャップを埋めるため,基礎となる科学的メカニズムを説明することができることを示す。
論文 参考訳(メタデータ) (2020-07-10T17:25:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。