論文の概要: A Learning Theoretic Perspective on Local Explainability
- arxiv url: http://arxiv.org/abs/2011.01205v1
- Date: Mon, 2 Nov 2020 18:48:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 11:21:10.073610
- Title: A Learning Theoretic Perspective on Local Explainability
- Title(参考訳): 地域説明可能性に関する学習理論的視点
- Authors: Jeffrey Li, Vaishnavh Nagarajan, Gregory Plumb, Ameet Talwalkar
- Abstract要約: 我々は,局所近似のレンズを通して,解釈可能な機械学習と学習理論の関連性を探究する。
まず、従来の性能一般化の問題に取り組み、その局所的な説明可能性の概念を用いてモデルのテスト時間精度を拘束する。
第2に,有限標本に基づく局所近似のクラスを増大させる上で重要な問題である説明一般化の新たな問題について検討する。
- 参考スコア(独自算出の注目度): 29.573120014438917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we explore connections between interpretable machine learning
and learning theory through the lens of local approximation explanations.
First, we tackle the traditional problem of performance generalization and
bound the test-time accuracy of a model using a notion of how locally
explainable it is. Second, we explore the novel problem of explanation
generalization which is an important concern for a growing class of finite
sample-based local approximation explanations. Finally, we validate our
theoretical results empirically and show that they reflect what can be seen in
practice.
- Abstract(参考訳): 本稿では,局所近似のレンズによる解釈可能な機械学習と学習理論の関連性を検討する。
まず,性能の一般化という従来の問題に取り組み,局所的に説明できるという概念を用いて,モデルのテスト時間精度を限定する。
第二に,有限サンプルベース局所近似説明のクラスが増大する上で重要な関心事となる,説明一般化の新たな問題を検討する。
最後に、我々の理論結果を実証的に検証し、実際に見られるものを反映していることを示す。
関連論文リスト
- Toward Understanding In-context vs. In-weight Learning [50.24035812301655]
本研究は,文脈内学習の出現と消失を引き起こす簡易な分布特性を同定する。
そして、この研究を完全な大規模言語モデルに拡張し、自然言語プロンプトの様々なコレクションの微調整が、文脈内および重み付き学習の振る舞いをいかに引き出すかを示す。
論文 参考訳(メタデータ) (2024-10-30T14:09:00Z) - Class-wise Activation Unravelling the Engima of Deep Double Descent [0.0]
二重降下は、機械学習領域内の反直観的な側面を示す。
本研究では,二重降下現象を再考し,その発生状況について考察した。
論文 参考訳(メタデータ) (2024-05-13T12:07:48Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - On progressive sharpening, flat minima and generalisation [39.91683439206866]
我々は、トレーニングサンプルに対して、損失ヘッセンと入力出力ヤコビアンを結びつけるアンザッツを接地する。
次に、モデルの入出力ヤコビアンがそのリプシッツノルムに近似する程度を定量化する一連の理論的結果を証明する。
我々は、我々のアンザッツと理論結果を用いて、最近観測された進歩的シャープニング現象の新たな説明を行う。
論文 参考訳(メタデータ) (2023-05-24T03:44:50Z) - Understanding the Unforeseen via the Intentional Stance [0.0]
本稿では,観察対象者の新しい行動を理解するためのアーキテクチャとシステムについて述べる。
このアプローチの2つの主な特徴は、デネットの意図的な姿勢と類推的推論の採用である。
論文 参考訳(メタデータ) (2022-11-01T14:14:14Z) - Which Mutual-Information Representation Learning Objectives are
Sufficient for Control? [80.2534918595143]
相互情報は、データの表現を学習するために魅力的な形式を提供する。
本稿では,最適政策の学習と表現のための状態表現の十分性について定式化する。
意外なことに、これらの2つの目的は、MDPの構造に関する軽度で一般的な仮定を前提に、不十分な表現をもたらす可能性がある。
論文 参考訳(メタデータ) (2021-06-14T10:12:34Z) - In Search of Robust Measures of Generalization [79.75709926309703]
我々は、一般化誤差、最適化誤差、過大なリスクのバウンダリを開発する。
経験的に評価すると、これらの境界の大部分は数値的に空白である。
我々は、分散ロバストネスの枠組みの中で、一般化対策を評価するべきであると論じる。
論文 参考訳(メタデータ) (2020-10-22T17:54:25Z) - Developing Constrained Neural Units Over Time [81.19349325749037]
本稿では,既存のアプローチと異なるニューラルネットワークの定義方法に焦点をあてる。
ニューラルネットワークの構造は、データとの相互作用にも拡張される制約の特別なクラスによって定義される。
提案した理論は時間領域にキャストされ, データを順序づけられた方法でネットワークに提示する。
論文 参考訳(メタデータ) (2020-09-01T09:07:25Z) - Ontology-based Interpretable Machine Learning for Textual Data [35.01650633374998]
本稿では,予測モデルを説明するためのサンプリング手法に基づいて,解釈可能なモデルを学習する新しい解釈フレームワークを提案する。
説明のために探索空間を狭めるために,学習可能なアンカーアルゴリズムを設計する。
さらに、学習された解釈可能な表現とアンカーを組み合わせることで、理解可能な説明を生成する一連の規則が導入された。
論文 参考訳(メタデータ) (2020-04-01T02:51:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。