論文の概要: Sampling Prediction-Matching Examples in Neural Networks: A
Probabilistic Programming Approach
- arxiv url: http://arxiv.org/abs/2001.03076v1
- Date: Thu, 9 Jan 2020 15:57:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 04:20:05.809180
- Title: Sampling Prediction-Matching Examples in Neural Networks: A
Probabilistic Programming Approach
- Title(参考訳): ニューラルネットワークにおけるサンプリング予測マッチング例:確率的プログラミングアプローチ
- Authors: Serena Booth, Ankit Shah, Yilun Zhou, Julie Shah
- Abstract要約: 本稿では,確率的プログラミングを用いた分類器の予測レベルセットの探索について考察する。
我々は,予測器が同一の特定の予測信頼度を持つ例のセットとして,予測レベルを定義した。
合成データセットとMNISTを用いた実験により,本手法を実証する。
- 参考スコア(独自算出の注目度): 9.978961706999833
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Though neural network models demonstrate impressive performance, we do not
understand exactly how these black-box models make individual predictions. This
drawback has led to substantial research devoted to understand these models in
areas such as robustness, interpretability, and generalization ability. In this
paper, we consider the problem of exploring the prediction level sets of a
classifier using probabilistic programming. We define a prediction level set to
be the set of examples for which the predictor has the same specified
prediction confidence with respect to some arbitrary data distribution.
Notably, our sampling-based method does not require the classifier to be
differentiable, making it compatible with arbitrary classifiers. As a specific
instantiation, if we take the classifier to be a neural network and the data
distribution to be that of the training data, we can obtain examples that will
result in specified predictions by the neural network. We demonstrate this
technique with experiments on a synthetic dataset and MNIST. Such level sets in
classification may facilitate human understanding of classification behaviors.
- Abstract(参考訳): ニューラルネットワークモデルは印象的な性能を示すが、これらのブラックボックスモデルが個々の予測をどう行うかは正確には分かっていない。
この欠点は、ロバスト性、解釈可能性、一般化能力といった分野において、これらのモデルを理解するための重要な研究につながった。
本稿では,確率的プログラミングを用いて分類器の予測レベル集合を探索する問題を考える。
本研究では,任意のデータ分布に対して,予測器が同じ特定の予測信頼度を持つ例のセットとして,予測レベルを定義した。
特に、サンプリングベースの手法では、任意の分類器と互換性を持たせるために、分類器を識別する必要がない。
特定のインスタンス化として、分類器をニューラルネットワークとし、データ分布をトレーニングデータのものとすれば、ニューラルネットワークによる特定の予測結果をもたらす例を得ることができる。
この手法を合成データセットとMNISTの実験により実証する。
このような分類のレベルセットは、分類行動の人間の理解を促進する。
関連論文リスト
- Can Bayesian Neural Networks Make Confident Predictions? [0.0]
内層重みに対する離散化事前の下では, 後部予測分布をガウス混合として正確に特徴付けることができることを示す。
また、異なるスケーリング体制における後部予測の収縮を評価することにより、モデルが「データから学習する」能力も特徴付ける。
論文 参考訳(メタデータ) (2025-01-20T22:36:28Z) - Exploring Beyond Logits: Hierarchical Dynamic Labeling Based on Embeddings for Semi-Supervised Classification [49.09505771145326]
モデル予測に依存しない階層型動的ラベル付け(HDL)アルゴリズムを提案し,画像埋め込みを用いてサンプルラベルを生成する。
本手法は,半教師付き学習における擬似ラベル生成のパラダイムを変える可能性がある。
論文 参考訳(メタデータ) (2024-04-26T06:00:27Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - Personalized Interpretable Classification [8.806213269230057]
我々は、新たなデータマイニング問題として、パーソナライズされた解釈可能な分類を正式に導入する第一歩を踏み出します。
実データ集合に関する一連の実証的研究を行う。
我々のアルゴリズムは、これら最先端(SOTA)の解釈可能な分類器と同じレベルの予測精度を達成できる。
論文 参考訳(メタデータ) (2023-02-06T01:59:16Z) - Confidence estimation of classification based on the distribution of the
neural network output layer [4.529188601556233]
現実の世界における予測モデルの適用を防ぐための最も一般的な問題の1つは一般化の欠如である。
ニューラルネットワーク分類モデルにより生成された特定の予測の不確かさを推定する新しい手法を提案する。
提案手法は,この予測に対応するロジット値の分布に基づいて,特定の予測の信頼性を推定する。
論文 参考訳(メタデータ) (2022-10-14T12:32:50Z) - A Top-down Supervised Learning Approach to Hierarchical Multi-label
Classification in Networks [0.21485350418225244]
本稿では,階層型マルチラベル分類(HMC)に対する一般的な予測モデルを提案する。
クラスごとの局所分類器を構築することで教師あり学習により階層的マルチラベル分類に対処するトップダウン分類アプローチに基づいている。
本モデルでは, イネOryza sativa Japonicaの遺伝子機能の予測について事例研究を行った。
論文 参考訳(メタデータ) (2022-03-23T17:29:17Z) - Conformal prediction for the design problem [72.14982816083297]
機械学習の現実的な展開では、次にテストすべきデータを選択するために予測アルゴリズムを使用します。
このような設定では、トレーニングデータとテストデータの間には、異なるタイプの分散シフトがある。
このような環境で予測の不確実性を定量化する手法を提案する。
論文 参考訳(メタデータ) (2022-02-08T02:59:12Z) - Instance-Based Neural Dependency Parsing [56.63500180843504]
依存関係解析のための解釈可能な推論プロセスを持つニューラルモデルを開発する。
私たちのモデルはインスタンスベースの推論を採用しており、トレーニングセットのエッジと比較することで、依存関係のエッジを抽出し、ラベル付けします。
論文 参考訳(メタデータ) (2021-09-28T05:30:52Z) - Locally Sparse Networks for Interpretable Predictions [7.362415721170984]
本稿では,局所的な疎度をサンプル固有のゲーティング機構を用いて学習する,局所スパースニューラルネットワークのトレーニングフレームワークを提案する。
サンプル固有の間隔は、テキスト予測ネットワークで予測され、テキスト予測ネットワークとタンデムでトレーニングされる。
本手法は,1インスタンスあたりの機能が少ないターゲット関数の予測において,最先端のモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-11T15:46:50Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - Regularizing Class-wise Predictions via Self-knowledge Distillation [80.76254453115766]
類似サンプル間の予測分布を解析する新しい正規化法を提案する。
これにより、単一のネットワークの暗黒知識(すなわち誤った予測に関する知識)を規則化する。
画像分類タスクにおける実験結果から, 単純だが強力な手法が一般化能力を大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-03-31T06:03:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。