論文の概要: Improving Decision Sparsity
- arxiv url: http://arxiv.org/abs/2410.20483v1
- Date: Sun, 27 Oct 2024 15:39:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:16:40.561541
- Title: Improving Decision Sparsity
- Title(参考訳): 意思決定のスパーシリティを改善する
- Authors: Yiyang Sun, Tong Wang, Cynthia Rudin,
- Abstract要約: SEV(Sparse Explanation Value)と呼ばれる決定空間の概念を劇的に拡張し、その説明がより意味を持つようにします。
本稿では、クラスタベースのSEVとその変種木ベースのSEVを紹介し、説明の信頼性を向上させる手法を導入し、機械学習モデルにおける決定空間の幅を最適化するアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 20.428983101272326
- License:
- Abstract: Sparsity is a central aspect of interpretability in machine learning. Typically, sparsity is measured in terms of the size of a model globally, such as the number of variables it uses. However, this notion of sparsity is not particularly relevant for decision-making; someone subjected to a decision does not care about variables that do not contribute to the decision. In this work, we dramatically expand a notion of decision sparsity called the Sparse Explanation Value(SEV) so that its explanations are more meaningful. SEV considers movement along a hypercube towards a reference point. By allowing flexibility in that reference and by considering how distances along the hypercube translate to distances in feature space, we can derive sparser and more meaningful explanations for various types of function classes. We present cluster-based SEV and its variant tree-based SEV, introduce a method that improves credibility of explanations, and propose algorithms that optimize decision sparsity in machine learning models.
- Abstract(参考訳): スパシティは、機械学習における解釈可能性の中心的な側面である。
通常、空間性は、使用する変数の数など、世界規模でモデルのサイズで測定される。
しかし、この空間性の概念は意思決定には特に関係がなく、決定を下された者は決定に寄与しない変数を気にしていない。
本研究では,スパース説明値(SEV)と呼ばれる決定空間の概念を劇的に拡張し,その説明をより意味のあるものにする。
SEVはハイパーキューブに沿って基準点に向かって動くことを考慮している。
この参照の柔軟性を許容し、ハイパーキューブに沿った距離が特徴空間の距離にどのように変換されるかを考慮することで、様々な種類の関数クラスに対してスペーサーとより意味のある説明を導き出すことができる。
本稿では、クラスタベースのSEVとその変種木ベースのSEVを紹介し、説明の信頼性を向上させる手法を導入し、機械学習モデルにおける決定空間の幅を最適化するアルゴリズムを提案する。
関連論文リスト
- LASERS: LAtent Space Encoding for Representations with Sparsity for Generative Modeling [3.9426000822656224]
より潜在的な空間はより表現力が高く、ベクトル量子化アプローチよりも表現性がよいことを示す。
以上の結果から,VQ手法の真の利点は,潜伏空間の離散化ではなく,潜伏空間の損失圧縮によるものである可能性が示唆された。
論文 参考訳(メタデータ) (2024-09-16T08:20:58Z) - Scaling Riemannian Diffusion Models [68.52820280448991]
非自明な多様体上の高次元タスクにスケールできることを示す。
我々は、$SU(n)$格子上のQCD密度と高次元超球面上の対照的に学習された埋め込みをモデル化する。
論文 参考訳(メタデータ) (2023-10-30T21:27:53Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - Vector Quantized Wasserstein Auto-Encoder [57.29764749855623]
生成的視点から深層離散表現を学習する。
我々は,コードワード列上の離散分布を付与し,コードワード列上の分布をデータ分布に伝達する決定論的デコーダを学習する。
WS 距離のクラスタリングの観点と結びつけて,より優れた,より制御可能なクラスタリングソリューションを実現するための,さらなる理論を開発しています。
論文 参考訳(メタデータ) (2023-02-12T13:51:36Z) - Scaling Laws Beyond Backpropagation [64.0476282000118]
因果デコーダのみの変換器を効率的に訓練するための直接フィードバックアライメントの有効性について検討した。
DFAはバックプロパゲーションよりも効率的なスケーリングを提供していないことが分かりました。
論文 参考訳(メタデータ) (2022-10-26T10:09:14Z) - Model interpretation using improved local regression with variable
importance [3.1690891866882236]
本稿では、VarImpとSupClusという2つの新しい解釈可能性手法を紹介する。
VarImpは各インスタンスの説明を生成し、より複雑な関係を持つデータセットに適用することができる。
SupClusは、同様の説明でインスタンスのクラスタを解釈し、より単純なデータセットに適用することができる。
論文 参考訳(メタデータ) (2022-09-12T16:22:59Z) - Adaptive Discrete Communication Bottlenecks with Dynamic Vector
Quantization [76.68866368409216]
入力に条件付けされた離散化の厳密度を動的に選択する学習を提案する。
コミュニケーションボトルネックの動的に変化する厳密さは、視覚的推論や強化学習タスクにおけるモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-02-02T23:54:26Z) - Disentangled Representation Learning and Generation with Manifold
Optimization [10.69910379275607]
本研究は,変分方向の促進による絡み合いを明確に促進する表現学習フレームワークを提案する。
理論的な議論と様々な実験により、提案モデルは、生成品質と非絡み合い表現学習の両方の観点から、多くのVAE変種よりも改善されていることが示された。
論文 参考訳(メタデータ) (2020-06-12T10:00:49Z) - Anchor & Transform: Learning Sparse Embeddings for Large Vocabularies [60.285091454321055]
我々は,アンカー埋め込みとスパース変換行列の小さな組を学習する,単純で効率的な埋め込みアルゴリズムを設計する。
テキスト分類、言語モデリング、映画レコメンデーションのベンチマークでは、ANTは大きな語彙サイズに特に適していることが示されている。
論文 参考訳(メタデータ) (2020-03-18T13:07:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。