論文の概要: User Driven Model Adjustment via Boolean Rule Explanations
- arxiv url: http://arxiv.org/abs/2203.15071v1
- Date: Mon, 28 Mar 2022 20:27:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 13:36:22.239149
- Title: User Driven Model Adjustment via Boolean Rule Explanations
- Title(参考訳): booleanルール説明によるユーザ駆動モデル調整
- Authors: Elizabeth M. Daly, Massimiliano Mattetti, \"Oznur Alkan, Rahul Nair
- Abstract要約: 本稿では,MLモデルの予測能力を活用しながら,ユーザが決定境界に対する修正を指定できるようにするソリューションを提案する。
我々のインタラクティブなオーバーレイアプローチは、モデルの再トレーニングを必要とせずにこの目標を達成する。
ユーザフィードバックルールをML予測に階層化して即時変更を提供することで,少ないデータで学習を支援することを実証する。
- 参考スコア(独自算出の注目度): 7.814304432499296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI solutions are heavily dependant on the quality and accuracy of the input
training data, however the training data may not always fully reflect the most
up-to-date policy landscape or may be missing business logic. The advances in
explainability have opened the possibility of allowing users to interact with
interpretable explanations of ML predictions in order to inject modifications
or constraints that more accurately reflect current realities of the system. In
this paper, we present a solution which leverages the predictive power of ML
models while allowing the user to specify modifications to decision boundaries.
Our interactive overlay approach achieves this goal without requiring model
retraining, making it appropriate for systems that need to apply instant
changes to their decision making. We demonstrate that user feedback rules can
be layered with the ML predictions to provide immediate changes which in turn
supports learning with less data.
- Abstract(参考訳): AIソリューションは、入力トレーニングデータの質と正確性に大きく依存するが、トレーニングデータは、常に最新のポリシーの状況を完全に反映しているか、ビジネスロジックを欠いている可能性がある。
説明可能性の進歩により、ユーザがML予測の解釈可能な説明と対話して、システムの現在の現実をより正確に反映する修正や制約を注入することが可能になった。
本稿では,MLモデルの予測能力を活用しながら,ユーザが決定境界に対する修正を指定できるソリューションを提案する。
当社のインタラクティブオーバーレイアプローチでは,モデルの再トレーニングを必要とせずにこの目標を達成しています。
ユーザフィードバックルールをML予測に階層化して即時変更を提供することで,少ないデータで学習を支援することを実証する。
関連論文リスト
- Self-Healing Machine Learning: A Framework for Autonomous Adaptation in Real-World Environments [50.310636905746975]
実世界の機械学習システムは、基礎となるデータ生成プロセスの分散シフトによって、モデルの性能劣化に遭遇することが多い。
概念のドリフト適応のような既存のシフトへのアプローチは、その理性に依存しない性質によって制限される。
我々はこれらの制限を克服するために自己修復機械学習(SHML)を提案する。
論文 参考訳(メタデータ) (2024-10-31T20:05:51Z) - Accelerating Large Language Model Inference with Self-Supervised Early Exits [0.0]
本稿では,大規模・事前学習型言語モデル(LLM)における推論を高速化する新しい手法を提案する。
本稿では,既存の変圧器層上に早期出口「頭部」を統合し,信頼度基準に基づく条件付き項化を容易にすることを提案する。
論文 参考訳(メタデータ) (2024-07-30T07:58:28Z) - Self-Augmented Preference Optimization: Off-Policy Paradigms for Language Model Alignment [104.18002641195442]
既存のペアデータを必要としない、効果的でスケーラブルなトレーニングパラダイムである自己拡張型優先度最適化(SAPO)を導入する。
負の反応を自律的に生成するセルフプレイの概念に基づいて、我々はさらに、データ探索とエクスプロイトを強化するために、非政治的な学習パイプラインを組み込む。
論文 参考訳(メタデータ) (2024-05-31T14:21:04Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - Introducing User Feedback-based Counterfactual Explanations (UFCE) [49.1574468325115]
対実的説明(CE)は、XAIで理解可能な説明を生成するための有効な解決策として浮上している。
UFCEは、アクション可能な機能のサブセットで最小限の変更を決定するために、ユーザー制約を含めることができる。
UFCEは、textitproximity(英語版)、textitsparsity(英語版)、textitfeasibility(英語版)の2つのよく知られたCEメソッドより優れている。
論文 参考訳(メタデータ) (2024-02-26T20:09:44Z) - Active Inference on the Edge: A Design Study [5.815300670677979]
アクティブ推論(アクティブ推論、英: Active Inference、ACI)とは、脳が知覚情報を常に予測し評価し、長期的サプライズを減らす方法を記述する神経科学の概念である。
我々は,ACIエージェントが要求を満たすことなく,最適化問題を迅速かつ追跡的に解決できたことを示す。
論文 参考訳(メタデータ) (2023-11-17T16:03:04Z) - FROTE: Feedback Rule-Driven Oversampling for Editing Models [14.112993602274457]
我々は、MLモデルの更新プロセスを迅速化する手段として、ユーザが提供するフィードバックルールに焦点を当てる。
フィードバックルールに応答してMLモデルを編集する前処理トレーニングデータの問題を紹介する。
そこで本研究では,新たなデータ拡張手法であるフィードバックルールに基づくオーバーサンプリング手法を提案する。
論文 参考訳(メタデータ) (2022-01-04T10:16:13Z) - Towards Model-informed Precision Dosing with Expert-in-the-loop Machine
Learning [0.0]
モデル学習ループに人的専門家を取り入れることで、モデル学習を加速し、解釈可能性を向上させるMLフレームワークを検討する。
本稿では,データアノテーションのコストが高い学習問題に対処することを目的とした,新たなヒューマン・イン・ザ・ループMLフレームワークを提案する。
精度測定への応用により,本手法はデータから解釈可能なルールを学習し,専門家の作業負荷を低減できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-28T03:45:09Z) - Model-agnostic and Scalable Counterfactual Explanations via
Reinforcement Learning [0.5729426778193398]
本稿では,最適化手順をエンドツーエンドの学習プロセスに変換する深層強化学習手法を提案する。
実世界のデータを用いた実験により,本手法はモデルに依存しず,モデル予測からのフィードバックのみに依存することがわかった。
論文 参考訳(メタデータ) (2021-06-04T16:54:36Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。