論文の概要: What and How of Machine Learning Transparency: Building Bespoke
Explainability Tools with Interoperable Algorithmic Components
- arxiv url: http://arxiv.org/abs/2209.03813v1
- Date: Thu, 8 Sep 2022 13:33:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-09 12:36:45.725620
- Title: What and How of Machine Learning Transparency: Building Bespoke
Explainability Tools with Interoperable Algorithmic Components
- Title(参考訳): 機械学習の透明性とは何か - 相互運用可能なアルゴリズムコンポーネントによる説明可能性ツールの構築
- Authors: Kacper Sokol and Alexander Hepburn and Raul Santos-Rodriguez and Peter
Flach
- Abstract要約: 本稿では,データ駆動予測モデルを説明するためのハンズオントレーニング教材について紹介する。
これらのリソースは、解釈可能な表現合成、データサンプリング、説明生成の3つのコアビルディングブロックをカバーする。
- 参考スコア(独自算出の注目度): 77.87794937143511
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainability techniques for data-driven predictive models based on
artificial intelligence and machine learning algorithms allow us to better
understand the operation of such systems and help to hold them accountable. New
transparency approaches are developed at breakneck speed, enabling us to peek
inside these black boxes and interpret their decisions. Many of these
techniques are introduced as monolithic tools, giving the impression of
one-size-fits-all and end-to-end algorithms with limited customisability.
Nevertheless, such approaches are often composed of multiple interchangeable
modules that need to be tuned to the problem at hand to produce meaningful
explanations. This paper introduces a collection of hands-on training materials
-- slides, video recordings and Jupyter Notebooks -- that provide guidance
through the process of building and evaluating bespoke modular surrogate
explainers for tabular data. These resources cover the three core building
blocks of this technique: interpretable representation composition, data
sampling and explanation generation.
- Abstract(参考訳): 人工知能と機械学習アルゴリズムに基づくデータ駆動予測モデルの説明可能性技術により、そのようなシステムの動作をよりよく理解し、それらを説明できる。
新しい透明性アプローチがブレークネックスピードで開発され、これらのブラックボックスの内部を覗き込み、彼らの決定を解釈することができます。
これらのテクニックの多くはモノリシックなツールとして導入され、カスタマイズ性に制限のあるワンサイズとエンドツーエンドのアルゴリズムの印象を与える。
しかしながら、そのようなアプローチは、しばしば意味のある説明を生み出すために、問題に手動でチューニングする必要がある複数の交換可能な加群から成り立っている。
本稿では,表データ用モジュール式サロゲート説明器の構築と評価プロセスを通じて指導を行う,ハンズオン学習教材(スライド,ビデオ録画,jupyterノートブック)のコレクションを紹介する。
これらのリソースは、解釈可能な表現合成、データサンプリング、説明生成の3つのコアビルディングブロックをカバーする。
関連論文リスト
- Topological Methods in Machine Learning: A Tutorial for Practitioners [4.297070083645049]
トポロジカル機械学習(TML)は、代数的トポロジの技法を利用して複雑なデータ構造を分析する分野である。
このチュートリアルは、2つの重要なTMLテクニック、永続的ホモロジーとMapperアルゴリズムの包括的な紹介を提供する。
アクセシビリティを高めるために、私たちはデータ中心のアプローチを採用し、読者はこれらのテクニックを関連するタスクに適用したハンズオン体験を得ることができる。
論文 参考訳(メタデータ) (2024-09-04T17:44:52Z) - Adversarial Attacks on the Interpretation of Neuron Activation
Maximization [70.5472799454224]
アクティベーション最大化アプローチは、訓練されたディープラーニングモデルの解釈と解析に使用される。
本研究では,解釈を欺くためにモデルを操作する敵の概念を考察する。
論文 参考訳(メタデータ) (2023-06-12T19:54:33Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Helpful, Misleading or Confusing: How Humans Perceive Fundamental
Building Blocks of Artificial Intelligence Explanations [11.667611038005552]
我々は、洗練された予測アルゴリズムから一歩引いて、単純な意思決定モデルの説明可能性について検討する。
我々は、人々がそれぞれの表現の理解性をどう感じているかを評価することを目的とする。
これにより、さまざまな利害関係者が、より精巧な人工知能の説明が構築される基本的な概念の無知性を判断することができる。
論文 参考訳(メタデータ) (2023-03-02T03:15:35Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - Explainability of Text Processing and Retrieval Methods: A Critical
Survey [1.5320737596132752]
本稿では,自然言語処理と情報検索手法の説明可能性と解釈可能性について概説する。
具体的には、単語埋め込み、シーケンスモデリング、アテンションモジュール、トランスフォーマー、BERT、文書ランキングの説明に応用されたアプローチについて調査する。
論文 参考訳(メタデータ) (2022-12-14T09:25:49Z) - FACT: Learning Governing Abstractions Behind Integer Sequences [7.895232155155041]
完全なフィニシャルな記述を認める概念の学習に関する新しい見解を紹介する。
機械学習モデルによる概念理解を目的としたベンチマークタスクのセットを配置する。
知識表現と推論の研究をさらに支援するため,FACT(Finitary Abstraction Toolkit)を提案する。
論文 参考訳(メタデータ) (2022-09-20T08:20:03Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - One Explanation Does Not Fit All: The Promise of Interactive
Explanations for Machine Learning Transparency [21.58324172085553]
ブラックボックスシステムの透明性向上のための対話型機械学習の約束について論じる。
本稿では, 条件文を対話的に調整することで, 対実的説明をパーソナライズする方法を示す。
我々は、説明そのものとその内容の調整がより重要であると論じている。
論文 参考訳(メタデータ) (2020-01-27T13:10:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。