論文の概要: Explaining Representation by Mutual Information
- arxiv url: http://arxiv.org/abs/2103.15114v1
- Date: Sun, 28 Mar 2021 12:26:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 09:46:44.913075
- Title: Explaining Representation by Mutual Information
- Title(参考訳): 相互情報による表現の説明
- Authors: Lifeng Gu
- Abstract要約: 本稿では,深層表現の解釈可能性に注目する。
相互情報に基づく表現の解釈可能な方法を提案する。
MI-LRモジュールをモデルに挿入して、モデルの表現を説明するための情報の量を推定できます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Science is used to discover the law of world. Machine learning can be used to
discover the law of data. In recent years, there are more and more research
about interpretability in machine learning community. We hope the machine
learning methods are safe, interpretable, and they can help us to find
meaningful pattern in data. In this paper, we focus on interpretability of deep
representation. We propose a interpretable method of representation based on
mutual information, which summarizes the interpretation of representation into
three types of information between input data and representation. We further
proposed MI-LR module, which can be inserted into the model to estimate the
amount of information to explain the model's representation. Finally, we verify
the method through the visualization of the prototype network.
- Abstract(参考訳): 科学は世界の法則を発見するために使われる。
機械学習は、データの法則の発見に使用できる。
近年,機械学習コミュニティにおける解釈可能性に関する研究がますます増えている。
機械学習の手法が安全で解釈可能であり、データに意味のあるパターンを見つけるのに役立つことを願っています。
本稿では,深層表現の解釈可能性に着目する。
本稿では,相互情報に基づく解釈可能な表現法を提案し,その解釈を入力データと表現の間の3種類の情報に要約する。
さらに、モデルに挿入して、モデル表現を説明するための情報量を推定できるMI-LRモジュールを提案する。
最後に,プロトタイプネットワークの可視化による検証を行う。
関連論文リスト
- MOUNTAINEER: Topology-Driven Visual Analytics for Comparing Local Explanations [6.835413642522898]
トポロジカルデータ解析(TDA)は、属性を一様グラフ表現に変換するために使用できるため、この領域で有効な方法である。
我々は、新しいトポロジ駆動視覚分析ツールであるMountaineerを紹介し、機械学習の実践者がこれらの表現をインタラクティブに分析し比較できるようにする。
我々は、Mountaineerによって、ブラックボックスMLの説明と、異なる説明の相違の原因を識別する領域を比較できることを示す。
論文 参考訳(メタデータ) (2024-06-21T19:28:50Z) - Revisiting Self-supervised Learning of Speech Representation from a
Mutual Information Perspective [68.20531518525273]
我々は、情報理論の観点から、既存の自己教師型音声の手法を詳しく検討する。
我々は線形プローブを用いて、対象情報と学習された表現の間の相互情報を推定する。
我々は、ラベルを使わずに、データの異なる部分間の相互情報を見積もる自己教師型の表現を評価する可能性を探る。
論文 参考訳(メタデータ) (2024-01-16T21:13:22Z) - Measuring the Interpretability of Unsupervised Representations via
Quantized Reverse Probing [97.70862116338554]
本稿では,自己教師付き表現の解釈可能性の測定問題について検討する。
我々は、後者を、表現と手動でラベル付けされた概念の空間の間の相互情報を推定するものとして定式化する。
提案手法は,多人数の自己教師付き表現の評価に利用し,解釈可能性による評価を行う。
論文 参考訳(メタデータ) (2022-09-07T16:18:50Z) - Fair Interpretable Representation Learning with Correction Vectors [60.0806628713968]
我々は「補正ベクトル」の学習を中心にした公正表現学習のための新しい枠組みを提案する。
このような方法で制約されたいくつかの公正表現学習モデルが、ランキングや分類性能の損失を示さないことを実験的に示す。
論文 参考訳(メタデータ) (2022-02-07T11:19:23Z) - Fair Representation Learning using Interpolation Enabled Disentanglement [9.043741281011304]
a) 下流タスクに対する学習された表現の有用性を確保しつつ、公平な不整合表現を同時に学べるか、(b) 提案手法が公正かつ正確であるかどうかに関する理論的知見を提供する。
前者に対応するために,補間可能外乱を用いた公正表現学習法FRIEDを提案する。
論文 参考訳(メタデータ) (2021-07-31T17:32:12Z) - Reasoning-Modulated Representations [85.08205744191078]
タスクが純粋に不透明でないような共通的な環境について研究する。
我々のアプローチは、新しいデータ効率表現学習の道を開く。
論文 参考訳(メタデータ) (2021-07-19T13:57:13Z) - InfoVAEGAN : learning joint interpretable representations by information
maximization and maximum likelihood [15.350366047108103]
本稿では,変分オートエンコーダ(VAE)の推論能力とGAN(Generative Adversarial Networks)の機能を組み合わせた表現学習アルゴリズムを提案する。
提案したモデルはInfoVAEGANと呼ばれ、ジェネレータとディスクリミネータの3つのネットワークで構成されている。
論文 参考訳(メタデータ) (2021-07-09T22:38:10Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Latent Feature Representation via Unsupervised Learning for Pattern
Discovery in Massive Electron Microscopy Image Volumes [4.278591555984395]
特に,データセットにおける意味的類似性を捉える潜在表現を学ぶための教師なしのディープラーニングアプローチを提案する。
動物脳の比較的小さな部分でもテラバイトの画像を要求できるナノスケールの電子顕微鏡データに適用する手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-12-22T17:14:19Z) - A Theory of Usable Information Under Computational Constraints [103.5901638681034]
本稿では,複雑なシステムにおける情報推論のための新しいフレームワークを提案する。
我々の基礎はシャノンの情報理論の変分拡張に基づいている。
計算制約を組み込むことで,データから$mathcalV$-informationを確実に推定できることを示す。
論文 参考訳(メタデータ) (2020-02-25T06:09:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。