論文の概要: Interpretability, Then What? Editing Machine Learning Models to Reflect
Human Knowledge and Values
- arxiv url: http://arxiv.org/abs/2206.15465v1
- Date: Thu, 30 Jun 2022 17:57:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-01 14:34:56.458035
- Title: Interpretability, Then What? Editing Machine Learning Models to Reflect
Human Knowledge and Values
- Title(参考訳): 解釈可能性、ならば何?
人間の知識と価値を反映する機械学習モデルの編集
- Authors: Zijie J. Wang, Alex Kale, Harsha Nori, Peter Stella, Mark E. Nunnally,
Duen Horng Chau, Mihaela Vorvoreanu, Jennifer Wortman Vaughan, Rich Caruana
- Abstract要約: データサイエンティストとドメインエキスパートがGAM(Generalized Additive Models)を編集するのを支援する最初の対話型システムであるGAM Changerを開発した。
新たなインタラクション技術により,我々のツールは,ユーザに対して,モデル行動と知識と価値を分析,検証,整合させるためのアクションに解釈可能性を持たせる。
- 参考スコア(独自算出の注目度): 27.333641578187887
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) interpretability techniques can reveal undesirable
patterns in data that models exploit to make predictions--potentially causing
harms once deployed. However, how to take action to address these patterns is
not always clear. In a collaboration between ML and human-computer interaction
researchers, physicians, and data scientists, we develop GAM Changer, the first
interactive system to help domain experts and data scientists easily and
responsibly edit Generalized Additive Models (GAMs) and fix problematic
patterns. With novel interaction techniques, our tool puts interpretability
into action--empowering users to analyze, validate, and align model behaviors
with their knowledge and values. Physicians have started to use our tool to
investigate and fix pneumonia and sepsis risk prediction models, and an
evaluation with 7 data scientists working in diverse domains highlights that
our tool is easy to use, meets their model editing needs, and fits into their
current workflows. Built with modern web technologies, our tool runs locally in
users' web browsers or computational notebooks, lowering the barrier to use.
GAM Changer is available at the following public demo link:
https://interpret.ml/gam-changer.
- Abstract(参考訳): 機械学習(ml)の解釈技術は、モデルが予測に利用するデータ内の望ましくないパターンを明らかにすることができる。
しかし、これらのパターンにどう対処するかは必ずしも明確ではない。
mlと人間とコンピュータの相互作用の研究者、医師、データサイエンティストのコラボレーションで、ドメインの専門家やデータサイエンティストが汎用加法モデル(gams)を簡単に編集し、問題のあるパターンを修正するのに役立つ最初のインタラクティブシステムgam changerを開発した。
新たなインタラクション技術により,我々のツールは,ユーザに対して,モデル行動と知識と価値を分析,検証,整合させる行動に解釈可能性を持たせる。
さまざまな領域で働く7人のデータサイエンティストによる評価では、このツールは使いやすく、モデル編集のニーズに合致し、現在のワークフローに適合していることが示されています。
最新のWebテクノロジで構築された当社のツールは,ユーザのWebブラウザや計算ノートブックでローカルに動作します。
GAM Changerは以下の公開デモリンクで利用可能である。
関連論文リスト
- Modulating Language Model Experiences through Frictions [56.17593192325438]
言語モデルの過度な消費は、短期において未確認エラーを伝播し、長期的な批判的思考のために人間の能力を損なうリスクを出力する。
行動科学の介入にインスパイアされた言語モデル体験のための選択的摩擦を提案し,誤用を抑える。
論文 参考訳(メタデータ) (2024-06-24T16:31:11Z) - A Multimodal Automated Interpretability Agent [63.8551718480664]
MAIAは、ニューラルモデルを使用して、ニューラルモデル理解タスクを自動化するシステムである。
まず、画像の学習表現における(ニューロンレベルの)特徴を記述できるMAIAの能力を特徴付ける。
次に、MAIAは、刺激的な特徴に対する感度の低下と、誤分類される可能性のある入力を自動的に識別する2つの追加の解釈可能性タスクに役立てることができることを示す。
論文 参考訳(メタデータ) (2024-04-22T17:55:11Z) - User Friendly and Adaptable Discriminative AI: Using the Lessons from
the Success of LLMs and Image Generation Models [0.6926105253992517]
我々は、ユーザが差別的なモデルで作業できる新しいシステムアーキテクチャを開発した。
我々のアプローチは、信頼、ユーザーフレンドリさ、そしてこれらの多目的だが伝統的な予測モデルの適応性を改善することに影響を及ぼす。
論文 参考訳(メタデータ) (2023-12-11T20:37:58Z) - Eliciting Model Steering Interactions from Users via Data and Visual
Design Probes [8.45602005745865]
ドメインの専門家は、機械学習(ML)モデルを作業に組み込むために、自動化データサイエンスツールをますます活用しています。
これらの専門家にとって、セマンティックなインタラクションは、技術的な詳細を掘り下げることなく、MLモデルをガイドし、洗練するためのアクセス可能な道を提供することができる。
本研究では,MLの専門知識を持つ専門家が意味的相互作用を用いて,単純な分類モデルを更新する方法について検討する。
論文 参考訳(メタデータ) (2023-10-12T20:34:02Z) - Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - GAM Changer: Editing Generalized Additive Models with Interactive
Visualization [28.77745864749409]
私たちは、データサイエンティストがGAM(Generalized Additive Models)を簡単にかつ責任を持って編集できるオープンソースのインタラクティブシステムであるGAM Changerを紹介します。
私たちのツールは、新しい可視化技術によって、解釈可能性(interpretability)を行動に導入します -- 人間のユーザに対して、モデル行動と知識と価値を分析、検証、調整することを可能にするのです。
論文 参考訳(メタデータ) (2021-12-06T18:51:49Z) - Towards Model-informed Precision Dosing with Expert-in-the-loop Machine
Learning [0.0]
モデル学習ループに人的専門家を取り入れることで、モデル学習を加速し、解釈可能性を向上させるMLフレームワークを検討する。
本稿では,データアノテーションのコストが高い学習問題に対処することを目的とした,新たなヒューマン・イン・ザ・ループMLフレームワークを提案する。
精度測定への応用により,本手法はデータから解釈可能なルールを学習し,専門家の作業負荷を低減できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-28T03:45:09Z) - Intuitively Assessing ML Model Reliability through Example-Based
Explanations and Editing Model Inputs [19.09848738521126]
解釈可能性メソッドは、機械学習モデルの能力に対する信頼の構築と理解を支援することを目的とする。
モデル信頼性をより直感的に評価するための2つのインターフェースモジュールを紹介します。
論文 参考訳(メタデータ) (2021-02-17T02:41:32Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。