論文の概要: GAM Changer: Editing Generalized Additive Models with Interactive
Visualization
- arxiv url: http://arxiv.org/abs/2112.03245v1
- Date: Mon, 6 Dec 2021 18:51:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 15:36:24.582639
- Title: GAM Changer: Editing Generalized Additive Models with Interactive
Visualization
- Title(参考訳): gam changer:インタラクティブな可視化による一般化加法モデルの編集
- Authors: Zijie J. Wang, Alex Kale, Harsha Nori, Peter Stella, Mark Nunnally,
Duen Horng Chau, Mihaela Vorvoreanu, Jennifer Wortman Vaughan, Rich Caruana
- Abstract要約: 私たちは、データサイエンティストがGAM(Generalized Additive Models)を簡単にかつ責任を持って編集できるオープンソースのインタラクティブシステムであるGAM Changerを紹介します。
私たちのツールは、新しい可視化技術によって、解釈可能性(interpretability)を行動に導入します -- 人間のユーザに対して、モデル行動と知識と価値を分析、検証、調整することを可能にするのです。
- 参考スコア(独自算出の注目度): 28.77745864749409
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent strides in interpretable machine learning (ML) research reveal that
models exploit undesirable patterns in the data to make predictions, which
potentially causes harms in deployment. However, it is unclear how we can fix
these models. We present our ongoing work, GAM Changer, an open-source
interactive system to help data scientists and domain experts easily and
responsibly edit their Generalized Additive Models (GAMs). With novel
visualization techniques, our tool puts interpretability into action --
empowering human users to analyze, validate, and align model behaviors with
their knowledge and values. Built using modern web technologies, our tool runs
locally in users' computational notebooks or web browsers without requiring
extra compute resources, lowering the barrier to creating more responsible ML
models. GAM Changer is available at https://interpret.ml/gam-changer.
- Abstract(参考訳): 解釈可能な機械学習(ml)研究の最近の進歩は、モデルがデータ内の望ましくないパターンを利用して予測していることを示している。
しかし、これらのモデルをどのように修正できるかは不明だ。
GAM Changerは、データサイエンティストやドメインエキスパートが、GAM(Generalized Additive Models)を簡単かつ責任を持って編集するのに役立つオープンソースのインタラクティブシステムです。
新たな可視化技術により,人間ユーザに対して,モデルの振る舞いを知識や価値観に分析,検証,整合させるような,解釈可能性を行動に導入する。
最新のWeb技術を使って構築された当社のツールは,計算リソースを余分に必要とせずに,ユーザの計算ノートブックやWebブラウザ上でローカルに動作します。
GAM Changerはhttps://interpret.ml/gam-changer.comで入手できる。
関連論文リスト
- Predicting the Performance of Black-box LLMs through Self-Queries [60.87193950962585]
大規模言語モデル(LLM)は、AIシステムにおいてますます頼りになってきている。
本稿では、フォローアッププロンプトを使用し、異なる応答の確率を表現として捉え、ブラックボックス方式でLCMの特徴を抽出する。
これらの低次元表現上で線形モデルをトレーニングすると、インスタンスレベルでのモデル性能の信頼性を予測できることを示す。
論文 参考訳(メタデータ) (2025-01-02T22:26:54Z) - Automated Text Scoring in the Age of Generative AI for the GPU-poor [49.1574468325115]
自動テキストスコアリングのためのオープンソースの小規模生成言語モデルの性能と効率を解析する。
以上の結果から, GLMは, 最先端の高性能化には至らず, 適正な調整が可能であることが示唆された。
論文 参考訳(メタデータ) (2024-07-02T01:17:01Z) - User Friendly and Adaptable Discriminative AI: Using the Lessons from
the Success of LLMs and Image Generation Models [0.6926105253992517]
我々は、ユーザが差別的なモデルで作業できる新しいシステムアーキテクチャを開発した。
我々のアプローチは、信頼、ユーザーフレンドリさ、そしてこれらの多目的だが伝統的な予測モデルの適応性を改善することに影響を及ぼす。
論文 参考訳(メタデータ) (2023-12-11T20:37:58Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z) - Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z) - Interpretability, Then What? Editing Machine Learning Models to Reflect
Human Knowledge and Values [27.333641578187887]
データサイエンティストとドメインエキスパートがGAM(Generalized Additive Models)を編集するのを支援する最初の対話型システムであるGAM Changerを開発した。
新たなインタラクション技術により,我々のツールは,ユーザに対して,モデル行動と知識と価値を分析,検証,整合させるためのアクションに解釈可能性を持たせる。
論文 参考訳(メタデータ) (2022-06-30T17:57:12Z) - Visual Auditor: Interactive Visualization for Detection and
Summarization of Model Biases [18.434430375939755]
機械学習(ML)システムがますます普及するにつれて、これらのシステムをデプロイ前にバイアスとして監査する必要がある。
近年の研究では、データのサブセット(またはスライス)を解釈可能で過小評価する形で、交差点バイアスを効果的に識別するアルゴリズムが開発されている。
モデルバイアスを監査・要約するための対話型可視化ツールであるVisual Auditorを提案する。
論文 参考訳(メタデータ) (2022-06-25T02:48:27Z) - GAM(e) changer or not? An evaluation of interpretable machine learning
models based on additive model constraints [5.783415024516947]
本稿では,一連の固有解釈可能な機械学習モデルについて検討する。
5つのGAMの予測特性を従来のMLモデルと比較した。
論文 参考訳(メタデータ) (2022-04-19T20:37:31Z) - Towards Model-informed Precision Dosing with Expert-in-the-loop Machine
Learning [0.0]
モデル学習ループに人的専門家を取り入れることで、モデル学習を加速し、解釈可能性を向上させるMLフレームワークを検討する。
本稿では,データアノテーションのコストが高い学習問題に対処することを目的とした,新たなヒューマン・イン・ザ・ループMLフレームワークを提案する。
精度測定への応用により,本手法はデータから解釈可能なルールを学習し,専門家の作業負荷を低減できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-28T03:45:09Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z) - Interpretable Learning-to-Rank with Generalized Additive Models [78.42800966500374]
ラーニング・ツー・ランクのモデルの解釈可能性は、非常に重要でありながら、比較的過小評価されている研究分野である。
解釈可能なランキングモデルの最近の進歩は、主に既存のブラックボックスランキングモデルに対するポストホックな説明の生成に焦点を当てている。
一般化加法モデル(GAM)をランキングタスクに導入することにより,本質的に解釈可能な学習 to ランクの基盤を築いた。
論文 参考訳(メタデータ) (2020-05-06T01:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。