論文の概要: PiML Toolbox for Interpretable Machine Learning Model Development and
Diagnostics
- arxiv url: http://arxiv.org/abs/2305.04214v3
- Date: Tue, 19 Dec 2023 21:02:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 22:10:04.775203
- Title: PiML Toolbox for Interpretable Machine Learning Model Development and
Diagnostics
- Title(参考訳): 解釈可能な機械学習モデルの開発と診断のためのPiMLツールボックス
- Authors: Agus Sudjianto, Aijun Zhang, Zebin Yang, Yu Su, Ningzhou Zeng
- Abstract要約: PiMLは、機械学習モデルの開発とモデル診断を解釈可能なPythonツールボックスである。
ローコードモードとハイコードモードの両方で、データパイプライン、モデルのトレーニングとチューニング、モデルの解釈と説明を含む機械学習で設計されている。
- 参考スコア(独自算出の注目度): 10.635578367440162
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: PiML (read $\pi$-ML, /`pai`em`el/) is an integrated and open-access Python
toolbox for interpretable machine learning model development and model
diagnostics. It is designed with machine learning workflows in both low-code
and high-code modes, including data pipeline, model training and tuning, model
interpretation and explanation, and model diagnostics and comparison. The
toolbox supports a growing list of interpretable models (e.g. GAM, GAMI-Net,
XGB1/XGB2) with inherent local and/or global interpretability. It also supports
model-agnostic explainability tools (e.g. PFI, PDP, LIME, SHAP) and a powerful
suite of model-agnostic diagnostics (e.g. weakness, reliability, robustness,
resilience, fairness). Integration of PiML models and tests to existing MLOps
platforms for quality assurance are enabled by flexible high-code APIs.
Furthermore, PiML toolbox comes with a comprehensive user guide and hands-on
examples, including the applications for model development and validation in
banking. The project is available at
https://github.com/SelfExplainML/PiML-Toolbox.
- Abstract(参考訳): PiML (read $\pi$-ML, /`pai`em`el/)は、機械学習モデルの開発とモデル診断を解釈可能なPythonツールボックスである。
データパイプライン、モデルのトレーニングとチューニング、モデルの解釈と説明、モデルの診断と比較を含む、ローコードおよびハイコードモードのマシンラーニングワークフローで設計されている。
このツールボックスは、固有のローカルおよび/またはグローバル解釈可能性を持つ解釈可能なモデル(例えば、gam、gami-net、xgb1/xgb2)の一覧をサポートする。
また、モデルに依存しない説明可能性ツール(PFI、PDP、LIME、SHAPなど)や、モデルに依存しない強力な診断ツール(弱点、信頼性、堅牢性、レジリエンス、公正性など)もサポートしている。
PiMLモデルの統合と、品質保証のための既存のMLOpsプラットフォームへのテストは、フレキシブルなハイコードAPIによって実現されている。
さらに、PiMLツールボックスには、モデル開発や銀行の検証など、包括的なユーザガイドとハンズオンの例が付属している。
このプロジェクトはhttps://github.com/SelfExplainML/PiML-Toolboxで入手できる。
関連論文リスト
- The Explabox: Model-Agnostic Machine Learning Transparency & Analysis [1.9864651310779593]
私たちは、透過的で責任ある機械学習(ML)モデルの開発と使用のためのオープンソースのツールキットであるExplaboxを紹介します。
説明可能な、公正で、堅牢なモデルを達成するのに、探索、調査、説明、公開という4段階の戦略を採用する。
このツールキットは、記述的な統計、パフォーマンスメトリクス、モデル行動の説明(ローカルおよびグローバル)、堅牢性、セキュリティ、公正性評価のための消化可能なものを含んでいる。
論文 参考訳(メタデータ) (2024-11-22T09:10:57Z) - Deep Fast Machine Learning Utils: A Python Library for Streamlined Machine Learning Prototyping [0.0]
Deep Fast Machine Learning Utils (DFMLU)ライブラリは、機械学習プロセスのアスペクトを自動化および拡張するために設計されたツールを提供する。
DFMLUはモデル開発とデータ処理をサポートする機能を提供します。
この原稿はDFMLUの機能の概要を示し、各ツールにPythonの例を提供している。
論文 参考訳(メタデータ) (2024-09-14T21:39:17Z) - VLMEvalKit: An Open-Source Toolkit for Evaluating Large Multi-Modality Models [89.63342806812413]
PyTorchに基づく大規模マルチモーダリティモデルを評価するためのオープンソースツールキットを提案する。
VLMEvalKitは70以上の大規模なマルチモダリティモデルを実装しており、プロプライエタリなAPIとオープンソースモデルの両方を含んでいる。
マルチモーダル学習研究の進展を追跡するために,OpenVLM Leaderboardを主催する。
論文 参考訳(メタデータ) (2024-07-16T13:06:15Z) - TIAViz: A Browser-based Visualization Tool for Computational Pathology
Models [0.6519788717471032]
TIAToolboxに組み込まれたPythonベースの視覚化ツールであるTIAVizを紹介する。
フレキシブルでインタラクティブで、完全にズーム可能な、幅広い情報をスライド画像全体にオーバーレイすることができる。
論文 参考訳(メタデータ) (2024-02-15T14:54:46Z) - Reformulating Vision-Language Foundation Models and Datasets Towards
Universal Multimodal Assistants [65.47222691674074]
Muffinフレームワークは、事前訓練された視覚言語モデルを使用して視覚信号のプロバイダとして機能する。
UniMM-Chatデータセットはデータセットの相補性を探求し、高品質で多様なマルチモーダル命令を生成する。
論文 参考訳(メタデータ) (2023-10-01T12:35:18Z) - CRAFT: Customizing LLMs by Creating and Retrieving from Specialized
Toolsets [75.64181719386497]
大規模言語モデル(LLM)のためのツール作成・検索フレームワークであるCRAFTを提案する。
タスク用に特別にキュレートされたツールセットを作成し、複雑なタスクを解決する能力を高めるためにこれらのセットからツールを取得するコンポーネントをLLMに装備する。
本手法はフレキシブルに設計されており,既製のLCMを細かな調整なしに未確認領域やモダリティに適応するためのプラグアンドプレイ方式を提供する。
論文 参考訳(メタデータ) (2023-09-29T17:40:26Z) - ModelScope-Agent: Building Your Customizable Agent System with
Open-source Large Language Models [74.64651681052628]
本稿では,オープンソースのLCMをコントローラとする実世界のアプリケーションのためのカスタマイズ可能なエージェントフレームワークであるModelScope-Agentを紹介する。
ユーザフレンドリーなシステムライブラリを提供し、カスタマイズ可能なエンジン設計により、複数のオープンソースLLMでモデルトレーニングをサポートする。
ツール使用データ収集、ツール検索、ツール登録、メモリ制御、カスタマイズされたモデルトレーニング、評価にまたがる包括的なフレームワークが提案されている。
論文 参考訳(メタデータ) (2023-09-02T16:50:30Z) - CausalVLR: A Toolbox and Benchmark for Visual-Linguistic Causal
Reasoning [107.81733977430517]
CausalVLR(Causal Visual-Linguistic Reasoning)は、最先端の因果関係の発見と因果推論方法の豊富なセットを含むオープンソースのツールボックスである。
これらのメソッドはNVIDIAコンピューティングシステムの下でPyTorchを実装したツールボックスに含まれている。
論文 参考訳(メタデータ) (2023-06-30T08:17:38Z) - MLOps: A Step Forward to Enterprise Machine Learning [0.0]
この研究は、MLOps、そのメリット、困難、進化、および重要な基盤技術に関する詳細なレビューを提示する。
MLOpsワークフローは、モデルとデータ探索とデプロイメントの両方に必要なさまざまなツールとともに、詳細に説明されている。
この記事では、さまざまな成熟度の高い自動パイプラインを使用して、MLプロジェクトのエンドツーエンド生産にも光を当てます。
論文 参考訳(メタデータ) (2023-05-27T20:44:14Z) - Toolformer: Language Models Can Teach Themselves to Use Tools [62.04867424598204]
言語モデル(LM)は、特に大規模において、いくつかの例やテキスト命令から新しいタスクを解く素晴らしい能力を示す。
LMは、シンプルなAPIを通じて外部ツールの使用を自覚し、両方の世界のベストを達成できることを示します。
Toolformerは、どのAPIを呼び出すか、いつ呼び出すか、どの引数を渡すか、結果を将来のトークン予測に最もうまく組み込む方法を訓練したモデルです。
論文 参考訳(メタデータ) (2023-02-09T16:49:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。