論文の概要: dalex: Responsible Machine Learning with Interactive Explainability and
Fairness in Python
- arxiv url: http://arxiv.org/abs/2012.14406v1
- Date: Mon, 28 Dec 2020 18:39:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 11:09:05.165747
- Title: dalex: Responsible Machine Learning with Interactive Explainability and
Fairness in Python
- Title(参考訳): dalex: pythonのインタラクティブな説明性と公平性を備えた責任ある機械学習
- Authors: Hubert Baniecki, Wojciech Kretowicz, Piotr Piatyszek, Jakub
Wisniewski, Przemyslaw Biecek
- Abstract要約: 対話型モデル探索のためのモデル非依存インターフェースを実装したPythonパッケージであるdalexを紹介する。
このライブラリのソースコードとドキュメントは、https:// python.drwhy.ai/ のオープンライセンスで入手できる。
- 参考スコア(独自算出の注目度): 2.4464094050168446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing amount of available data, computing power, and the constant
pursuit for higher performance results in the growing complexity of predictive
models. Their black-box nature leads to opaqueness debt phenomenon inflicting
increased risks of discrimination, lack of reproducibility, and deflated
performance due to data drift. To manage these risks, good MLOps practices ask
for better validation of model performance and fairness, higher explainability,
and continuous monitoring. The necessity of deeper model transparency appears
not only from scientific and social domains, but also emerging laws and
regulations on artificial intelligence. To facilitate the development of
responsible machine learning models, we showcase dalex, a Python package which
implements the model-agnostic interface for interactive model exploration. It
adopts the design crafted through the development of various tools for
responsible machine learning; thus, it aims at the unification of the existing
solutions. This library's source code and documentation are available under
open license at https://python.drwhy.ai/.
- Abstract(参考訳): 利用可能なデータ量の増加、計算能力の向上、パフォーマンス向上の追求により、予測モデルの複雑さが増大する。
ブラックボックスの性質は不透明な負債現象を引き起こし、差別のリスクの増加、再現性の欠如、データドリフトによるパフォーマンス低下をもたらす。
これらのリスクを管理するため、優れたMLOpsプラクティスでは、モデルパフォーマンスと公正性、説明可能性の向上、継続的な監視の検証が求められている。
より深いモデル透明性の必要性は、科学や社会の領域だけでなく、人工知能に関する新しい法律や規則にも現れている。
責任ある機械学習モデルの開発を容易にするため,対話型モデル探索のためのモデル非依存インタフェースを実装したPythonパッケージであるdalexを紹介した。
機械学習に責任を持つさまざまなツールの開発を通じて作られたデザインを採用しており、既存のソリューションの統合を目指している。
このライブラリのソースコードとドキュメントは、https://python.drwhy.ai/で公開されている。
関連論文リスト
- How to unlearn a learned Machine Learning model ? [0.0]
機械学習モデルを学習し、その能力を視覚化するためのエレガントなアルゴリズムを提示します。
基礎となる数学的理論を解明し、所望のデータに対する未学習モデルの性能と望ましくないデータに対する無知の両方を評価するための具体的な指標を確立する。
論文 参考訳(メタデータ) (2024-10-13T17:38:09Z) - Data-Juicer Sandbox: A Comprehensive Suite for Multimodal Data-Model Co-development [67.55944651679864]
統合データモデル共同開発に適した新しいサンドボックススイートを提案する。
このサンドボックスは包括的な実験プラットフォームを提供し、データとモデルの両方の迅速なイテレーションと洞察駆動による改善を可能にする。
また、徹底的なベンチマークから得られた実りある洞察を明らかにし、データ品質、多様性、モデル行動の間の重要な相互作用に光を当てています。
論文 参考訳(メタデータ) (2024-07-16T14:40:07Z) - LVLM-Interpret: An Interpretability Tool for Large Vision-Language Models [50.259006481656094]
本稿では,大規模視覚言語モデルの内部メカニズムの理解を目的とした対話型アプリケーションを提案する。
このインタフェースは, 画像パッチの解釈可能性を高めるために設計されており, 応答の生成に有効である。
本稿では,一般的な大規模マルチモーダルモデルであるLLaVAにおける障害機構の理解に,アプリケーションがどのように役立つかのケーススタディを示す。
論文 参考訳(メタデータ) (2024-04-03T23:57:34Z) - Data-efficient Large Vision Models through Sequential Autoregression [58.26179273091461]
限られたデータセットに基づいて,効率的な自己回帰に基づく視覚モデルを構築する。
このモデルは,高レベル・低レベルのセマンティック理解の両方にまたがる視覚的タスクにおいて,その習熟度をいかに達成するかを実証する。
我々の経験的評価は、モデルが様々なタスクに適応する際の機敏さを強調し、パラメータフットプリントの大幅な削減を図った。
論文 参考訳(メタデータ) (2024-02-07T13:41:53Z) - Learning Active Subspaces and Discovering Important Features with Gaussian Radial Basis Functions Neural Networks [0.0]
モデルの訓練が完了すると抽出できる精度行列のスペクトルに含まれる貴重な情報を示す。
回帰,分類,特徴選択タスクの数値実験を行った。
その結果,提案モデルが競合モデルに比べて魅力的な予測性能が得られるだけでなく,予測性能も向上することが示唆された。
論文 参考訳(メタデータ) (2023-07-11T09:54:30Z) - Interpretable models for extrapolation in scientific machine learning [0.0]
複雑な機械学習アルゴリズムは、補間的設定において単純な回帰よりも優れていることが多い。
本稿では, モデル性能と解釈可能性のトレードオフを, 幅広い科学・工学的問題にまたがって検討する。
論文 参考訳(メタデータ) (2022-12-16T19:33:28Z) - Constructing Effective Machine Learning Models for the Sciences: A
Multidisciplinary Perspective [77.53142165205281]
線形回帰モデルに変数間の変換や相互作用を手動で追加することで、非線形解が必ずしも改善されないことを示す。
データ駆動モデルを構築する前にこれを認識する方法や、そのような分析が本質的に解釈可能な回帰モデルへの移行にどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2022-11-21T17:48:44Z) - Data Models for Dataset Drift Controls in Machine Learning With Optical
Images [8.818468649062932]
主な障害モードは、トレーニングデータとデプロイメントデータの違いによるパフォーマンス低下である。
既存のアプローチでは、関心の対象であるデータ(データ)の明示的なモデルは説明できない。
本研究では、画像データに対してそのようなデータモデルを構築する方法を示し、データセットのドリフトに関連する下流機械学習モデルの性能を制御する。
論文 参考訳(メタデータ) (2022-11-04T16:50:10Z) - Interpreting Black-box Machine Learning Models for High Dimensional
Datasets [40.09157165704895]
我々は、高次元データセット上でブラックボックスモデルをトレーニングし、その分類が行われる埋め込みを学習する。
次に、トップk特徴空間上の解釈可能な代理モデルを用いてブラックボックスモデルの挙動を近似する。
我々のアプローチは、異なるデータセットでテストした場合、TabNetやXGboostのような最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-08-29T07:36:17Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。