論文の概要: User Driven Model Adjustment via Boolean Rule Explanations
- arxiv url: http://arxiv.org/abs/2203.15071v1
- Date: Mon, 28 Mar 2022 20:27:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 13:36:22.239149
- Title: User Driven Model Adjustment via Boolean Rule Explanations
- Title(参考訳): booleanルール説明によるユーザ駆動モデル調整
- Authors: Elizabeth M. Daly, Massimiliano Mattetti, \"Oznur Alkan, Rahul Nair
- Abstract要約: 本稿では,MLモデルの予測能力を活用しながら,ユーザが決定境界に対する修正を指定できるようにするソリューションを提案する。
我々のインタラクティブなオーバーレイアプローチは、モデルの再トレーニングを必要とせずにこの目標を達成する。
ユーザフィードバックルールをML予測に階層化して即時変更を提供することで,少ないデータで学習を支援することを実証する。
- 参考スコア(独自算出の注目度): 7.814304432499296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI solutions are heavily dependant on the quality and accuracy of the input
training data, however the training data may not always fully reflect the most
up-to-date policy landscape or may be missing business logic. The advances in
explainability have opened the possibility of allowing users to interact with
interpretable explanations of ML predictions in order to inject modifications
or constraints that more accurately reflect current realities of the system. In
this paper, we present a solution which leverages the predictive power of ML
models while allowing the user to specify modifications to decision boundaries.
Our interactive overlay approach achieves this goal without requiring model
retraining, making it appropriate for systems that need to apply instant
changes to their decision making. We demonstrate that user feedback rules can
be layered with the ML predictions to provide immediate changes which in turn
supports learning with less data.
- Abstract(参考訳): AIソリューションは、入力トレーニングデータの質と正確性に大きく依存するが、トレーニングデータは、常に最新のポリシーの状況を完全に反映しているか、ビジネスロジックを欠いている可能性がある。
説明可能性の進歩により、ユーザがML予測の解釈可能な説明と対話して、システムの現在の現実をより正確に反映する修正や制約を注入することが可能になった。
本稿では,MLモデルの予測能力を活用しながら,ユーザが決定境界に対する修正を指定できるソリューションを提案する。
当社のインタラクティブオーバーレイアプローチでは,モデルの再トレーニングを必要とせずにこの目標を達成しています。
ユーザフィードバックルールをML予測に階層化して即時変更を提供することで,少ないデータで学習を支援することを実証する。
関連論文リスト
- Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - Introducing User Feedback-based Counterfactual Explanations (UFCE) [49.1574468325115]
対実的説明(CE)は、XAIで理解可能な説明を生成するための有効な解決策として浮上している。
UFCEは、アクション可能な機能のサブセットで最小限の変更を決定するために、ユーザー制約を含めることができる。
UFCEは、textitproximity(英語版)、textitsparsity(英語版)、textitfeasibility(英語版)の2つのよく知られたCEメソッドより優れている。
論文 参考訳(メタデータ) (2024-02-26T20:09:44Z) - Active Inference on the Edge: A Design Study [5.815300670677979]
アクティブ推論(アクティブ推論、英: Active Inference、ACI)とは、脳が知覚情報を常に予測し評価し、長期的サプライズを減らす方法を記述する神経科学の概念である。
我々は,ACIエージェントが要求を満たすことなく,最適化問題を迅速かつ追跡的に解決できたことを示す。
論文 参考訳(メタデータ) (2023-11-17T16:03:04Z) - DeforestVis: Behavior Analysis of Machine Learning Models with Surrogate
Decision Stumps [49.97564931094598]
複雑なMLモデルの振る舞いをユーザフレンドリに要約するビジュアル分析ツールであるDeforestVisを提案する。
DeforestVisは、より多くの切り株をインクリメンタルに生成することで、複雑さとフィデリティのトレードオフを探索するのに役立つ。
DeforestVisの適用性と有用性について,2つのユースケースと,データアナリストとモデル開発者とのエキスパートインタビューで紹介する。
論文 参考訳(メタデータ) (2023-03-31T21:17:15Z) - Data-Driven Offline Decision-Making via Invariant Representation
Learning [97.49309949598505]
オフラインのデータ駆動意思決定は、アクティブなインタラクションなしで最適化された決定を合成する。
オフラインデータからトレーニングされたモデルへの入力に関して最適化する場合、誤って良いように見えるアウト・オブ・ディストリビューション(OOD)インプットを生成するのは簡単です。
本稿では、オフラインデータ駆動意思決定をドメイン適応として定式化し、最適化された決定値の正確な予測を行うことを目標とする。
論文 参考訳(メタデータ) (2022-11-21T11:01:37Z) - FROTE: Feedback Rule-Driven Oversampling for Editing Models [14.112993602274457]
我々は、MLモデルの更新プロセスを迅速化する手段として、ユーザが提供するフィードバックルールに焦点を当てる。
フィードバックルールに応答してMLモデルを編集する前処理トレーニングデータの問題を紹介する。
そこで本研究では,新たなデータ拡張手法であるフィードバックルールに基づくオーバーサンプリング手法を提案する。
論文 参考訳(メタデータ) (2022-01-04T10:16:13Z) - Towards Model-informed Precision Dosing with Expert-in-the-loop Machine
Learning [0.0]
モデル学習ループに人的専門家を取り入れることで、モデル学習を加速し、解釈可能性を向上させるMLフレームワークを検討する。
本稿では,データアノテーションのコストが高い学習問題に対処することを目的とした,新たなヒューマン・イン・ザ・ループMLフレームワークを提案する。
精度測定への応用により,本手法はデータから解釈可能なルールを学習し,専門家の作業負荷を低減できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-28T03:45:09Z) - Model-agnostic and Scalable Counterfactual Explanations via
Reinforcement Learning [0.5729426778193398]
本稿では,最適化手順をエンドツーエンドの学習プロセスに変換する深層強化学習手法を提案する。
実世界のデータを用いた実験により,本手法はモデルに依存しず,モデル予測からのフィードバックのみに依存することがわかった。
論文 参考訳(メタデータ) (2021-06-04T16:54:36Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。