論文の概要: The Explabox: Model-Agnostic Machine Learning Transparency & Analysis
- arxiv url: http://arxiv.org/abs/2411.15257v1
- Date: Fri, 22 Nov 2024 09:10:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:24:58.853166
- Title: The Explabox: Model-Agnostic Machine Learning Transparency & Analysis
- Title(参考訳): Explabox: モデルに依存しない機械学習の透明性と分析
- Authors: Marcel Robeer, Michiel Bron, Elize Herrewijnen, Riwish Hoeseni, Floris Bex,
- Abstract要約: 私たちは、透過的で責任ある機械学習(ML)モデルの開発と使用のためのオープンソースのツールキットであるExplaboxを紹介します。
説明可能な、公正で、堅牢なモデルを達成するのに、探索、調査、説明、公開という4段階の戦略を採用する。
このツールキットは、記述的な統計、パフォーマンスメトリクス、モデル行動の説明(ローカルおよびグローバル)、堅牢性、セキュリティ、公正性評価のための消化可能なものを含んでいる。
- 参考スコア(独自算出の注目度): 1.9864651310779593
- License:
- Abstract: We present the Explabox: an open-source toolkit for transparent and responsible machine learning (ML) model development and usage. Explabox aids in achieving explainable, fair and robust models by employing a four-step strategy: explore, examine, explain and expose. These steps offer model-agnostic analyses that transform complex 'ingestibles' (models and data) into interpretable 'digestibles'. The toolkit encompasses digestibles for descriptive statistics, performance metrics, model behavior explanations (local and global), and robustness, security, and fairness assessments. Implemented in Python, Explabox supports multiple interaction modes and builds on open-source packages. It empowers model developers and testers to operationalize explainability, fairness, auditability, and security. The initial release focuses on text data and models, with plans for expansion. Explabox's code and documentation are available open-source at https://explabox.readthedocs.io/.
- Abstract(参考訳): 私たちは、透過的で責任ある機械学習(ML)モデルの開発と使用のためのオープンソースのツールキットであるExplaboxを紹介します。
Explaboxは4段階の戦略(探索、調査、説明、公開)を採用することで、説明可能な、公平で堅牢なモデルを達成するのに役立ちます。
これらのステップは、複雑な「不可能」(モデルとデータ)を解釈可能な「消化可能」に変換するモデルに依存しない分析を提供する。
このツールキットは、記述的な統計、パフォーマンスメトリクス、モデル行動の説明(ローカルおよびグローバル)、堅牢性、セキュリティ、公正性評価のための消化可能なものを含んでいる。
Pythonで実装されたExplaboxは、複数のインタラクションモードをサポートし、オープンソースパッケージ上に構築されている。
モデル開発者とテスタに説明責任、公正性、監査可能性、セキュリティを運用する権限を与えます。
最初のリリースはテキストデータとモデルに焦点を当てており、拡張の計画がある。
Explaboxのコードとドキュメントはhttps://explabox.readthedocs.io/.comで公開されている。
関連論文リスト
- Data-Juicer Sandbox: A Comprehensive Suite for Multimodal Data-Model Co-development [67.55944651679864]
統合データモデル共同開発に適した新しいサンドボックススイートを提案する。
このサンドボックスは包括的な実験プラットフォームを提供し、データとモデルの両方の迅速なイテレーションと洞察駆動による改善を可能にする。
また、徹底的なベンチマークから得られた実りある洞察を明らかにし、データ品質、多様性、モデル行動の間の重要な相互作用に光を当てています。
論文 参考訳(メタデータ) (2024-07-16T14:40:07Z) - VLMEvalKit: An Open-Source Toolkit for Evaluating Large Multi-Modality Models [89.63342806812413]
PyTorchに基づく大規模マルチモーダリティモデルを評価するためのオープンソースツールキットを提案する。
VLMEvalKitは70以上の大規模なマルチモダリティモデルを実装しており、プロプライエタリなAPIとオープンソースモデルの両方を含んでいる。
マルチモーダル学習研究の進展を追跡するために,OpenVLM Leaderboardを主催する。
論文 参考訳(メタデータ) (2024-07-16T13:06:15Z) - pyvene: A Library for Understanding and Improving PyTorch Models via
Interventions [79.72930339711478]
$textbfpyvene$は、さまざまなPyTorchモジュールに対するカスタマイズ可能な介入をサポートするオープンソースライブラリである。
私たちは、$textbfpyvene$が、ニューラルモデルへの介入を実行し、他のモデルとインターバルされたモデルを共有するための統一されたフレームワークを提供する方法を示します。
論文 参考訳(メタデータ) (2024-03-12T16:46:54Z) - FIND: A Function Description Benchmark for Evaluating Interpretability
Methods [86.80718559904854]
本稿では,自動解釈可能性評価のためのベンチマークスイートであるFIND(Function Interpretation and Description)を紹介する。
FINDには、トレーニングされたニューラルネットワークのコンポーネントに似た機能と、私たちが生成しようとしている種類の記述が含まれています。
本研究では、事前訓練された言語モデルを用いて、自然言語とコードにおける関数の振る舞いの記述を生成する手法を評価する。
論文 参考訳(メタデータ) (2023-09-07T17:47:26Z) - PiML Toolbox for Interpretable Machine Learning Model Development and
Diagnostics [10.635578367440162]
PiMLは、機械学習モデルの開発とモデル診断を解釈可能なPythonツールボックスである。
ローコードモードとハイコードモードの両方で、データパイプライン、モデルのトレーニングとチューニング、モデルの解釈と説明を含む機械学習で設計されている。
論文 参考訳(メタデータ) (2023-05-07T08:19:07Z) - Plex: Towards Reliability using Pretrained Large Model Extensions [69.13326436826227]
我々は,視覚と言語モダリティのための事前訓練された大規模モデル拡張であるViT-PlexとT5-Plexを開発した。
Plexは信頼性タスク間の最先端性を大幅に改善し、従来のプロトコルを単純化する。
最大1Bパラメータまでのモデルサイズに対するスケーリング効果と,最大4B例までのデータセットサイズを事前トレーニングした。
論文 参考訳(メタデータ) (2022-07-15T11:39:37Z) - An Understanding-Oriented Robust Machine Reading Comprehension Model [12.870425062204035]
本稿では,3種類のロバスト性問題に対処する理解指向機械読解モデルを提案する。
具体的には、入力された質問の正確な意味を理解するために、まず自然言語推論モジュールを使用します。
第3に,一般化の問題に対処する多言語学習機構を提案する。
論文 参考訳(メタデータ) (2022-07-01T03:32:02Z) - OmniXAI: A Library for Explainable AI [98.07381528393245]
eXplainable AI(XAI)のオープンソースPythonライブラリであるOmniXAIを紹介する。
オールニウェイで説明可能なAI機能と、さまざまな解釈可能な機械学習技術を提供する。
実践者にとってこのライブラリは、アプリケーションの説明を生成するために、使いやすく統合されたインターフェースを提供する。
論文 参考訳(メタデータ) (2022-06-01T11:35:37Z) - The Language Interpretability Tool: Extensible, Interactive
Visualizations and Analysis for NLP Models [17.423179212411263]
Language Interpretability Tool (LIT)は、NLPモデルの可視化と理解のためのオープンソースのプラットフォームである。
LITは、局所的な説明、集約分析、および反ファクト生成を、合理化されたブラウザベースのインターフェースに統合する。
論文 参考訳(メタデータ) (2020-08-12T06:07:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。