論文の概要: Explainable Machine Learning: The Importance of a System-Centric
Perspective
- arxiv url: http://arxiv.org/abs/2302.02347v1
- Date: Sun, 5 Feb 2023 09:22:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 18:44:57.013405
- Title: Explainable Machine Learning: The Importance of a System-Centric
Perspective
- Title(参考訳): 説明可能な機械学習: システム中心の視点の重要性
- Authors: Manish Narwaria
- Abstract要約: ディープラーニング(DL)は、信号と関心のあるタスクの間の複雑な未知の関係をモデル化することができる。
DLアルゴリズムは、異なるアプリケーションにおいて知覚的または意味的に有用な信号情報を認識することに成功している。
しかし、暗黙的モデリングに焦点が当てられていることは、結果として生じるDLベースのマッピングやブラックボックスの問題の説明可能性や解釈可能性の欠如を提起する。
- 参考スコア(独自算出の注目度): 4.1372815372396525
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The landscape in the context of several signal processing applications and
even education appears to be significantly affected by the emergence of machine
learning (ML) and in particular deep learning (DL).The main reason for this is
the ability of DL to model complex and unknown relationships between signals
and the tasks of interest. Particularly, supervised DL algorithms have been
fairly successful at recognizing perceptually or semantically useful signal
information in different applications. In all of these, the training process
uses labeled data to learn a mapping function (typically implicitly) from
signals to the desired information (class label or target label). The trained
DL model is then expected to correctly recognize/classify relevant information
in a given test signal. A DL based framework is therefore, in general, very
appealing since the features and characteristics of the required mapping are
learned almost exclusively from the data without resorting to explicit
model/system development. The focus on implicit modeling however also raises
the issue of lack of explainability/interpretability of the resultant DL based
mapping or the black box problem. As a result, explainable ML/DL is an active
research area where the primary goal is to elaborate how the ML/DL model
arrived at a prediction. We however note that despite the efforts, the
commentary on black box problem appears to lack a technical discussion from the
view point of: a) its origin and underlying reasons, and b) its practical
implications on the design and deployment of ML/DL systems. Accordingly, a
reasonable question that can be raised is as follows. Can the traditional
system-centric approach (which places emphasis on explicit system modeling)
provide useful insights into the nature of black box problem, and help develop
more transparent ML/DL systems?
- Abstract(参考訳): いくつかの信号処理アプリケーションや教育の文脈におけるランドスケープは、機械学習(ML)や特にディープラーニング(DL)の出現に大きく影響しているように見える。
その主な理由は、DLが信号と関心のあるタスクの間の複雑な未知の関係をモデル化する能力である。
特に、教師付きDLアルゴリズムは、異なるアプリケーションにおいて知覚的または意味的に有用な信号情報を認識することに成功している。
これらすべてにおいて、トレーニングプロセスはラベル付きデータを使用して、信号から望ましい情報(クラスラベルまたはターゲットラベル)へのマッピング機能(典型的には暗黙的に)を学ぶ。
訓練されたDLモデルは、与えられたテスト信号で関連する情報を正しく認識/分類することが期待される。
したがって、DLベースのフレームワークは、明示的なモデル/システム開発に頼ることなく、データから必要なマッピングの特徴と特性をほとんど学習するため、一般的に非常に魅力的である。
しかし、暗黙的なモデリングにフォーカスすることは、dlベースのマッピングやブラックボックスの問題の説明可能性や解釈可能性の欠如を提起する。
その結果、ML/DLは、ML/DLモデルがどのように予測に到達したかを詳しく知ることが目的である、活発な研究領域である。
しかし、この努力にもかかわらず、ブラックボックス問題に関するコメントは、以下の観点から技術的な議論を欠いているようだ。
a) その起源及び根本的な理由,及び
b)ML/DLシステムの設計及び展開にその実践的意味がある。
そのため、次のような合理的な疑問が提起される。
従来のシステム中心のアプローチ(明示的なシステムモデリングに重点を置く)は、ブラックボックス問題の性質に関する有用な洞察を与え、より透過的なML/DLシステムの開発に役立つだろうか?
関連論文リスト
- Mind the Interference: Retaining Pre-trained Knowledge in Parameter Efficient Continual Learning of Vision-Language Models [79.28821338925947]
ドメインクラスのインクリメンタル学習は現実的だが、継続的な学習シナリオである。
これらの多様なタスクに対処するために、事前訓練されたビジョンランゲージモデル(VLM)を導入し、その強力な一般化性を実現する。
事前訓練されたVLMにエンコードされた知識は、新しいタスクに適応する際に妨げられ、固有のゼロショット能力を損なう。
既存の手法では、膨大なオーバーヘッドを必要とする余分なデータセットに知識蒸留でVLMをチューニングすることで、この問題に対処している。
我々は、事前学習した知識を保持できるDIKI(Distributed-Aware Interference-free Knowledge Integration)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-07T12:19:37Z) - Identifiable Causal Representation Learning: Unsupervised, Multi-View, and Multi-Environment [10.814585613336778]
因果表現学習は、機械学習のコアとなる強みと因果性を組み合わせることを目的としている。
この論文は、CRLが直接の監督なしに何が可能であるかを調査し、理論的基礎に寄与する。
論文 参考訳(メタデータ) (2024-06-19T09:14:40Z) - Transgressing the boundaries: towards a rigorous understanding of deep
learning and its (non-)robustness [3.1219977244201056]
様々な分野のアプリケーションにおける機械学習の最近の進歩は、ディープラーニング(DL)メソッドとアーキテクチャの台頭によるものである。
自動運転車、画像処理、音声認識などの背後にある重要な技術であるにもかかわらず、DLの理論的理解の欠如は悪名高い問題である。
論文 参考訳(メタデータ) (2023-07-05T17:27:17Z) - Recognizing Unseen Objects via Multimodal Intensive Knowledge Graph
Propagation [68.13453771001522]
画像の領域と対応するセマンティック埋め込みとをマッチングする多モード集中型ZSLフレームワークを提案する。
我々は、大規模な実世界のデータに基づいて、広範囲な実験を行い、そのモデルを評価する。
論文 参考訳(メタデータ) (2023-06-14T13:07:48Z) - Ignorance is Bliss: Robust Control via Information Gating [60.17644038829572]
情報パーシモニーは、ノイズや突発的相関に頑健であることにより、より良い一般化を実現する学習表現に有用な帰納的バイアスを提供する。
本稿では,タスクに必要な最小限の情報を識別する類似表現を学習する手段として,テキスト情報ゲーティングを提案する。
論文 参考訳(メタデータ) (2023-03-10T18:31:50Z) - Does Explainable Machine Learning Uncover the Black Box in Vision
Applications? [1.0660480034605242]
説明可能なMLの背景にある現在の哲学は、一定の限界に悩まされていると我々は主張する。
また、より厳格な原則に頼ることで、MLにおける説明力がどのように役立つかという視点も提供します。
論文 参考訳(メタデータ) (2021-12-18T10:37:52Z) - Reasoning-Modulated Representations [85.08205744191078]
タスクが純粋に不透明でないような共通的な環境について研究する。
我々のアプローチは、新しいデータ効率表現学習の道を開く。
論文 参考訳(メタデータ) (2021-07-19T13:57:13Z) - EXplainable Neural-Symbolic Learning (X-NeSyL) methodology to fuse deep
learning representations with expert knowledge graphs: the MonuMAI cultural
heritage use case [13.833923272291853]
本稿では,記号表現と深部表現の両方を学習するためのeXplainable Neural-symbolic Learning (X-NeSyL)手法を提案する。
X-NeSyL手法は、それぞれ推論時と訓練時の2つの説明概念の具体的使用を含む。
MonuMAIデータセットを用いたX-NeSyL手法を記念碑的ファサード画像分類に導入し,説明性と性能の向上を実証した。
論文 参考訳(メタデータ) (2021-04-24T09:06:08Z) - Transfer Learning for Aided Target Recognition: Comparing Deep Learning
to other Machine Learning Approaches [0.0]
AiTR(Aided target recognition)は、産業や防衛分野のアプリケーションにおいて重要な問題である。
ディープラーニング(DL)は、最近の現実世界の問題に対して、例外的なモデリングの柔軟性と精度を提供する。
私たちのゴールは、DLフレームワーク内の転送学習と、転送タスクとデータセットをまたいだ他のMLアプローチを比較することで、この欠点に対処することにあります。
論文 参考訳(メタデータ) (2020-11-25T14:25:49Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。