論文の概要: When a CBR in Hand is Better than Twins in the Bush
- arxiv url: http://arxiv.org/abs/2305.05111v1
- Date: Tue, 9 May 2023 00:55:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 14:14:45.095358
- Title: When a CBR in Hand is Better than Twins in the Bush
- Title(参考訳): 茂みの中の双子より手持ちのcbrの方が良いとき
- Authors: Mobyen Uddin Ahmed and Shaibal Barua and Shahina Begum and Mir Riyanul
Islam and Rosina O Weber
- Abstract要約: 本稿では,最も正確なデータ回帰モデルをXGBoost実装を用いて訓練した飛行の離陸遅延を予測するための回帰問題文脈について論じる。
XGB-CBRツインを構築し、XGBoostの特徴をCBRモデルにおけるグローバルウェイトに変換する一方で、結果のCBRモデルは最も正確な局所予測を提供する。
XGBoost回帰モデルを説明する2つの付加的特徴属性法 SHAP と LIME の評価に用いられる。
- 参考スコア(独自算出の注目度): 2.8821432690005304
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI methods referred to as interpretable are often discredited as inaccurate
by supporters of the existence of a trade-off between interpretability and
accuracy. In many problem contexts however this trade-off does not hold. This
paper discusses a regression problem context to predict flight take-off delays
where the most accurate data regression model was trained via the XGBoost
implementation of gradient boosted decision trees. While building an XGB-CBR
Twin and converting the XGBoost feature importance into global weights in the
CBR model, the resultant CBR model alone provides the most accurate local
prediction, maintains the global importance to provide a global explanation of
the model, and offers the most interpretable representation for local
explanations. This resultant CBR model becomes a benchmark of accuracy and
interpretability for this problem context, and hence it is used to evaluate the
two additive feature attribute methods SHAP and LIME to explain the XGBoost
regression model. The results with respect to local accuracy and feature
attribution lead to potentially valuable future work.
- Abstract(参考訳): 解釈可能(interpretable)と呼ばれるAIメソッドは、解釈可能性と正確性の間のトレードオフが存在するというサポーターによって、不正確なものとされがちである。
しかし、多くの問題では、このトレードオフは成立しない。
本稿では,最も正確なデータ回帰モデルをXGBoost実装を用いて訓練した飛行の離陸遅延を予測するための回帰問題文脈について論じる。
XGB-CBRツインの構築と、XGBoostの機能の重要性をCBRモデルのグローバルウェイトに変換する一方で、結果のCBRモデルは、最も正確な局所予測のみを提供し、そのモデルのグローバルな説明を提供するためにグローバルな重要性を維持し、局所的な説明に対して最も解釈可能な表現を提供する。
このCBRモデルは、この問題の文脈における精度と解釈可能性のベンチマークとなり、XGBoost回帰モデルを説明するために2つの付加的特徴属性法SHAPとLIMEを評価するために使用される。
局所的精度と特徴属性に関する結果は、潜在的に価値のある将来の仕事につながる。
関連論文リスト
- UncertaintyRAG: Span-Level Uncertainty Enhanced Long-Context Modeling for Retrieval-Augmented Generation [93.38604803625294]
IncertaintyRAG, a novel approach for long-context Retrieval-Augmented Generation (RAG)について紹介する。
我々は、SNR(Signal-to-Noise Ratio)ベースのスパン不確実性を用いて、テキストチャンク間の類似性を推定する。
不確かさRAGはLLaMA-2-7Bでベースラインを2.03%上回り、最先端の結果を得る。
論文 参考訳(メタデータ) (2024-10-03T17:39:38Z) - Backward Compatibility in Attributive Explanation and Enhanced Model Training Method [0.0]
本稿では,事前および更新後のモデル間の特徴属性説明の後方互換性を評価する指標であるBCXを紹介する。
BCXは、事前および更新後のモデルの説明の間の平均合意を計算するために、実践的な合意メトリクスを利用する。
モデルの説明の中でL2距離を利用して,すべての合意基準を改善するBCXRの普遍的変種を提案する。
論文 参考訳(メタデータ) (2024-08-05T08:14:32Z) - Test-Time Adaptation Induces Stronger Accuracy and Agreement-on-the-Line [65.14099135546594]
最近のテスト時間適応 (TTA) 法は, モデルに非常に弱い相関関係を示すシフトであっても, ACL と AGL の傾向を大幅に強化する。
この結果から,TTAとAGLに基づく推定手法を組み合わせることで,より広い分布シフトの集合に対する高精度なモデルOOD性能を推定できることが示唆された。
論文 参考訳(メタデータ) (2023-10-07T23:21:25Z) - Causal Disentanglement Hidden Markov Model for Fault Diagnosis [55.90917958154425]
本研究では, 軸受破壊機構の因果性を学ぶために, 因果解離隠れマルコフモデル (CDHM) を提案する。
具体的には、時系列データをフル活用し、振動信号を断層関連要因と断層関連要因に段階的に分解する。
アプリケーションの範囲を広げるために、学習された非絡み合った表現を他の作業環境に転送するために、教師なしのドメイン適応を採用する。
論文 参考訳(メタデータ) (2023-08-06T05:58:45Z) - VisFIS: Visual Feature Importance Supervision with
Right-for-the-Right-Reason Objectives [84.48039784446166]
モデルFI監督は、VQAモデルの精度と、Right-to-the-Right-Reasonメトリクスの性能を有意義に向上させることができることを示す。
我々の最高のパフォーマンス手法であるVisual Feature Importance Supervision (VisFIS)は、ベンチマークVQAデータセットで強いベースラインを上回ります。
説明が妥当で忠実な場合には予測がより正確になる。
論文 参考訳(メタデータ) (2022-06-22T17:02:01Z) - GP-BART: a novel Bayesian additive regression trees approach using
Gaussian processes [1.03590082373586]
GP-BARTモデル(GP-BART model)は、すべての木間の各終端ノードの予測にGP先行を仮定することで制限に対処するBARTの拡張である。
モデルの有効性は、シミュレーションおよび実世界のデータへの応用を通じて実証され、様々なシナリオにおける従来のモデリング手法のパフォーマンスを上回る。
論文 参考訳(メタデータ) (2022-04-05T11:18:44Z) - Robustness and Accuracy Could Be Reconcilable by (Proper) Definition [109.62614226793833]
強靭性と精度のトレードオフは、敵文学において広く研究されている。
局所的不変性の帰納的バイアスを課す不適切に定義された頑健な誤差に由来する可能性がある。
定義上、SCOREは、最悪のケースの不確実性に対処しながら、堅牢性と正確性の間の和解を促進する。
論文 参考訳(メタデータ) (2022-02-21T10:36:09Z) - Unifying Model Explainability and Robustness for Joint Text
Classification and Rationale Extraction [11.878012909876713]
そこで我々は,AT-BMCという共同分類と合理的抽出モデルを提案する。
混合逆行訓練(AT)は、モデルの堅牢性を改善するために離散的および埋め込み空間における様々な摂動を利用するように設計されており、境界マッチング制約(BMC)は境界情報のガイダンスによりより正確に有理性を見つけるのに役立つ。
ベンチマークデータセットのパフォーマンスは、提案されたAT-BMCが、大きなマージンによる分類と合理性抽出の両方のベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2021-12-20T09:48:32Z) - BCD Nets: Scalable Variational Approaches for Bayesian Causal Discovery [97.79015388276483]
構造方程式モデル(SEM)は、有向非巡回グラフ(DAG)を介して表される因果関係を推論する効果的な枠組みである。
近年の進歩により、観測データからDAGの有効最大点推定が可能となった。
線形ガウス SEM を特徴付ける DAG 上の分布を推定するための変分フレームワークである BCD Nets を提案する。
論文 参考訳(メタデータ) (2021-12-06T03:35:21Z) - Debiased Explainable Pairwise Ranking from Implicit Feedback [0.3867363075280543]
BPR(Bayesian Personalized Ranking)に焦点をあてる。
BPRはアウトプットを説明しないブラックボックスモデルであり、ユーザのレコメンデーションに対する信頼を制限する。
本稿では,項目に基づく説明とともにレコメンデーションを生成する新しい説明可能な損失関数と,それに対応する行列分解モデルを提案する。
論文 参考訳(メタデータ) (2021-07-30T17:19:37Z) - A Locally Adaptive Interpretable Regression [7.4267694612331905]
線形回帰は最も解釈可能な予測モデルの一つである。
本稿では,局所適応型解釈型回帰(LoAIR)を導入する。
我々のモデルは、他の最先端のベースラインと同等またはより良い予測性能を達成する。
論文 参考訳(メタデータ) (2020-05-07T09:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。