論文の概要: Actionable Interpretation of Machine Learning Models for Sequential
Data: Dementia-related Agitation Use Case
- arxiv url: http://arxiv.org/abs/2009.05097v1
- Date: Thu, 10 Sep 2020 19:04:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 04:12:03.334840
- Title: Actionable Interpretation of Machine Learning Models for Sequential
Data: Dementia-related Agitation Use Case
- Title(参考訳): 逐次データのための機械学習モデルの実用的な解釈:認知症関連扇動の事例
- Authors: Nutta Homdee, John Lach
- Abstract要約: アクション可能な解釈は、ほとんどの伝統的なブラックボックス機械学習モデルで実装できる。
既にトレーニング済みのモデル、トレーニングデータ、データ処理技術を使って実行可能なアイテムを抽出する。
また, 家庭内光レベル低下など, 扇動現象を誘発する動作可能な項目を抽出できることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning has shown successes for complex learning problems in which
data/parameters can be multidimensional and too complex for a first-principles
based analysis. Some applications that utilize machine learning require human
interpretability, not just to understand a particular result (classification,
detection, etc.) but also for humans to take action based on that result.
Black-box machine learning model interpretation has been studied, but recent
work has focused on validation and improving model performance. In this work,
an actionable interpretation of black-box machine learning models is presented.
The proposed technique focuses on the extraction of actionable measures to help
users make a decision or take an action. Actionable interpretation can be
implemented in most traditional black-box machine learning models. It uses the
already trained model, used training data, and data processing techniques to
extract actionable items from the model outcome and its time-series inputs. An
implementation of the actionable interpretation is shown with a use case:
dementia-related agitation prediction and the ambient environment. It is shown
that actionable items can be extracted, such as the decreasing of in-home light
level, which is triggering an agitation episode. This use case of actionable
interpretation can help dementia caregivers take action to intervene and
prevent agitation.
- Abstract(参考訳): 機械学習は、データ/パラメータが多次元であり、第一原理に基づく分析には複雑すぎる複雑な学習問題に成功している。
機械学習を利用するいくつかのアプリケーションは、特定の結果(分類、検出など)を理解するだけでなく、その結果に基づいて行動を起こすために、人間の解釈可能性を必要とする。
ブラックボックス機械学習モデルの解釈は研究されているが、最近の研究はモデル性能の検証と改善に焦点を当てている。
本稿では,ブラックボックス機械学習モデルの動作可能な解釈について述べる。
提案手法は,ユーザの意思決定支援や行動支援に有効な手段の抽出に重点を置いている。
アクション可能な解釈は、ほとんどの伝統的なブラックボックス機械学習モデルで実装できる。
既に訓練済みのモデル、トレーニングデータ、およびデータ処理技術を使用して、モデル結果とその時系列入力から実行可能なアイテムを抽出する。
行動可能な解釈の実装は,認知症関連動揺予測と環境環境というユースケースで示される。
また, 家庭内光レベル低下など, 扇動現象を誘発する動作可能な項目を抽出できることが示唆された。
この動作可能な解釈のユースケースは、認知症介護者が介入し、扇動を防ぐために行動を起こすのに役立つ。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Common Steps in Machine Learning Might Hinder The Explainability Aims in Medicine [0.0]
本稿では、機械学習におけるデータ前処理のステップとそのモデルの説明可能性および解釈可能性への影響について論じる。
これらのステップはモデルの精度を向上させるが、特に医学において慎重に考慮されていない場合、モデルの説明可能性を妨げる可能性がある。
論文 参考訳(メタデータ) (2024-08-30T12:09:14Z) - Achieving interpretable machine learning by functional decomposition of black-box models into explainable predictor effects [4.3500439062103435]
ブラックボックス予測の関数分解のための新しい手法を提案する。
加法回帰モデルと同様に,本手法は主特徴量の方向と強度に関する洞察を与える。
論文 参考訳(メタデータ) (2024-07-26T10:37:29Z) - Machine Unlearning for Causal Inference [0.6621714555125157]
モデルが与えられたユーザに関する情報(マシンアンラーニング)の学習/取得の一部を忘れることが重要である。
本稿では、因果推論のための機械学習の概念、特に確率スコアマッチングと治療効果推定について紹介する。
この研究で使用されるデータセットは、ジョブトレーニングプログラムの有効性を評価するために広く使用されているデータセットであるLalondeデータセットである。
論文 参考訳(メタデータ) (2023-08-24T17:27:01Z) - Matched Machine Learning: A Generalized Framework for Treatment Effect
Inference With Learned Metrics [87.05961347040237]
我々は、機械学習ブラックボックスの柔軟性とマッチングの解釈可能性を組み合わせたフレームワークであるMatched Machine Learningを紹介する。
我々のフレームワークは機械学習を用いて、一致した単位を学習し、結果を推定する最適な指標を学習する。
一致機械学習のインスタンスはブラックボックスの機械学習手法と同等に動作し、類似した問題に対する既存のマッチング手法よりも優れていることを実証的に示す。
論文 参考訳(メタデータ) (2023-04-03T19:32:30Z) - A Weighted Solution to SVM Actionability and Interpretability [0.0]
実行可能性(Actionability)は、機械学習モデルの解釈可能性や説明可能性と同じくらい重要であり、進行中で重要な研究トピックである。
本稿では,線形SVMモデルと非線形SVMモデルの両方において,動作可能性の問題に対する解を求める。
論文 参考訳(メタデータ) (2020-12-06T20:35:25Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。