論文の概要: Rashomon Sets for Prototypical-Part Networks: Editing Interpretable Models in Real-Time
- arxiv url: http://arxiv.org/abs/2503.01087v1
- Date: Mon, 03 Mar 2025 01:22:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:22:16.421746
- Title: Rashomon Sets for Prototypical-Part Networks: Editing Interpretable Models in Real-Time
- Title(参考訳): 原型部分ネットワークのための羅生門集合--解釈可能なモデルをリアルタイムに編集する
- Authors: Jon Donnelly, Zhicheng Guo, Alina Jade Barnett, Hayden McTavish, Chaofan Chen, Cynthia Rudin,
- Abstract要約: 解釈可能性(Interpretability)は、ハイテイクな設定で機械学習モデルに不可欠である。
コンピュータビジョンでは、プロトタイプ部分モデル(ProtoPNet)がこのニーズを満たすために支配的なモデルタイプとなっている。
Proto-RSetと呼ばれる私たちのフレームワークは、すぐに多くの正確で多様なProtoPNetを生成します。
- 参考スコア(独自算出の注目度): 22.43007329887079
- License:
- Abstract: Interpretability is critical for machine learning models in high-stakes settings because it allows users to verify the model's reasoning. In computer vision, prototypical part models (ProtoPNets) have become the dominant model type to meet this need. Users can easily identify flaws in ProtoPNets, but fixing problems in a ProtoPNet requires slow, difficult retraining that is not guaranteed to resolve the issue. This problem is called the "interaction bottleneck." We solve the interaction bottleneck for ProtoPNets by simultaneously finding many equally good ProtoPNets (i.e., a draw from a "Rashomon set"). We show that our framework - called Proto-RSet - quickly produces many accurate, diverse ProtoPNets, allowing users to correct problems in real time while maintaining performance guarantees with respect to the training set. We demonstrate the utility of this method in two settings: 1) removing synthetic bias introduced to a bird identification model and 2) debugging a skin cancer identification model. This tool empowers non-machine-learning experts, such as clinicians or domain experts, to quickly refine and correct machine learning models without repeated retraining by machine learning experts.
- Abstract(参考訳): 解釈可能性(Interpretability)は、ユーザーがモデルの推論を検証することができるため、ハイテイクな設定で機械学習モデルに不可欠である。
コンピュータビジョンでは、プロトタイプ部分モデル(ProtoPNet)がこのニーズを満たすために支配的なモデルタイプとなっている。
ユーザは容易にProtoPNetの欠陥を特定することができるが、ProtoPNetで問題を修正するには、問題の解決が保証されない、遅くて難しい再トレーニングが必要である。
この問題は「相互作用ボトルネック」と呼ばれる。
我々は,ProtoPNetの相互作用ボトルネックを,多数の優れたProtoPNet(すなわち"Rashomon set"からの引き分け)を同時に見つけることによって解決する。
Proto-RSetと呼ばれる私たちのフレームワークは、多くの正確で多様なProtoPNetを迅速に生成し、ユーザがトレーニングセットに関するパフォーマンス保証を維持しながら、リアルタイムで問題を修正できることを示します。
この手法の有用性を2つの設定で示す。
1)鳥類識別モデルに導入された合成バイアスを除去し、
2)皮膚がん識別モデルのデバッグ。
このツールは、臨床医やドメインエキスパートのような非機械学習の専門家に、機械学習の専門家による繰り返しのトレーニングを伴わずに、機械学習モデルを迅速に洗練し、修正する権限を与える。
関連論文リスト
- Optimizing Perturbations for Improved Training of Machine Learning Models [0.0]
摂動学習プロセスが準定常状態に達した場合、単一摂動周波数での応答は広い周波数でその振舞いを予測することができることを示す。
本研究により,統計的手法を用いて機械学習モデルの学習プロトコルを最適化することができる。
論文 参考訳(メタデータ) (2025-02-06T14:53:21Z) - Know2Vec: A Black-Box Proxy for Neural Network Retrieval [46.79848289037472]
Know2Vecはモデル動物園のブラックボックス検索プロキシとして機能する。
事前にブラックボックスインターフェースを通じてモデルにアクセスし、モデルから重要な決定知識を取得する。
クエリサンプル内の意味関係を探索することで、ユーザのクエリタスクを知識ベクトルにマップする。
論文 参考訳(メタデータ) (2024-12-20T02:56:46Z) - SPaR: Self-Play with Tree-Search Refinement to Improve Instruction-Following in Large Language Models [88.29990536278167]
SPaRは、木探索の自己制限を統合したセルフプレイフレームワークで、気を散らさずに有効かつ同等の選好ペアを得る。
実験により,SPaRで誘導された3回の反復で訓練されたLLaMA3-8Bモデルが,一般機能を失うことなくIFEvalベンチマークでGPT-4-Turboを上回った。
論文 参考訳(メタデータ) (2024-12-16T09:47:43Z) - Enhancing LLM Reasoning via Critique Models with Test-Time and Training-Time Supervision [120.40788744292739]
本稿では、推論と批判モデルの役割を分離する2人プレイヤパラダイムを提案する。
まず、批判データを収集する自動化およびスケーラブルなフレームワークであるAutoMathCritiqueを提案する。
テスト時間における難解なクエリに対するアクターのパフォーマンスを,批判モデルが一貫して改善することが実証された。
論文 参考訳(メタデータ) (2024-11-25T17:11:54Z) - Promises and Pitfalls of Generative Masked Language Modeling: Theoretical Framework and Practical Guidelines [74.42485647685272]
GMLM(Generative Masked Language Models)に焦点を当てる。
我々は,マルコフ連鎖の入力として使用されるマスキングにより,データ分布の条件付き確率に適合するモデルを訓練し,モデルからサンプルを抽出する。
我々は,T5モデルを並列デコーディングに適応させ,最小品質の犠牲を伴って機械翻訳における2~3倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-07-22T18:00:00Z) - Bridging Expert Knowledge with Deep Learning Techniques for Just-In-Time Defect Prediction [9.877904077610049]
Just-In-Time(JIT)の欠陥予測は、コミットが欠陥であるかどうかを自動的に予測することを目的としている。
シンプルなモデルで使用される手作りの機能は、専門家の知識に基づいていますが、コミットの意味を完全に表現することはできません。
複雑なモデルで使用されるディープラーニングベースの機能は、コミットの意味を表現しているが、有用な専門家の知識を反映していないかもしれない。
論文 参考訳(メタデータ) (2024-03-17T04:20:38Z) - LegoNet: A Fast and Exact Unlearning Architecture [59.49058450583149]
機械学習は、トレーニングされたモデルから削除された要求に対する特定のトレーニングサンプルの影響を削除することを目的としている。
固定エンコーダ+複数アダプタのフレームワークを採用した新しいネットワークである textitLegoNet を提案する。
我々は、LegoNetが許容できる性能を維持しつつ、高速かつ正確な未学習を実現し、未学習のベースラインを総合的に上回っていることを示す。
論文 参考訳(メタデータ) (2022-10-28T09:53:05Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - The Right Tool for the Job: Matching Model and Instance Complexities [62.95183777679024]
NLPモデルが大きくなればなるほど、訓練されたモデルを実行するには、金銭的・環境的なコストを発生させる重要な計算資源が必要である。
我々は、推論中、早期(かつ高速)の"exit"を可能にする文脈表現微調整の修正を提案する。
3つのテキスト分類データセットと2つの自然言語推論ベンチマークの2つのタスクで、5つの異なるデータセットに対して提案した修正を検証した。
論文 参考訳(メタデータ) (2020-04-16T04:28:08Z) - Editable Neural Networks [25.939872732737022]
多くのアプリケーションにおいて、単一のモデルエラーは、経済的、評判、さらには生命を脅かす結果をもたらす可能性がある。
本稿では,学習モデルの高速な編集を支援するモデルに依存しない訓練手法であるEditable Trainingを提案する。
大規模画像分類と機械翻訳における本手法の有効性を実証的に実証した。
論文 参考訳(メタデータ) (2020-04-01T11:26:27Z) - PrIU: A Provenance-Based Approach for Incrementally Updating Regression
Models [9.496524884855559]
本稿では,予測精度を犠牲にすることなく,モデルパラメータを漸進的に更新する手法PrIUを提案する。
漸進的に更新されたモデルパラメータの正しさと収束性を証明し、実験的に検証する。
実験結果から, PrIU-optはスクラッチからモデルを再トレーニングするのに対して, 非常に類似したモデルを得るよりも, 最大2桁のスピードアップを達成できることがわかった。
論文 参考訳(メタデータ) (2020-02-26T21:04:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。