論文の概要: Algebraically Explainable Controllers: Decision Trees and Support Vector
Machines Join Forces
- arxiv url: http://arxiv.org/abs/2208.12804v2
- Date: Mon, 29 Aug 2022 11:28:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 11:11:12.600909
- Title: Algebraically Explainable Controllers: Decision Trees and Support Vector
Machines Join Forces
- Title(参考訳): 代数的説明可能なコントローラ:決定木とサポートベクターマシンの結合
- Authors: Florian J\"ungermann, Jan K\v{r}et\'insk\'y, and Maximilian Weininger
- Abstract要約: 決定木(DT)は、コントローラ(戦略、ポリシー、スケジューラなど)の説明可能な表現として使われてきた。
よりリッチなドメイン関連代数上の理解可能な表現を得るために、この2つのフレームワークを組み合わせることを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recently, decision trees (DT) have been used as an explainable representation
of controllers (a.k.a. strategies, policies, schedulers). Although they are
often very efficient and produce small and understandable controllers for
discrete systems, complex continuous dynamics still pose a challenge. In
particular, when the relationships between variables take more complex forms,
such as polynomials, they cannot be obtained using the available DT learning
procedures. In contrast, support vector machines provide a more powerful
representation, capable of discovering many such relationships, but not in an
explainable form. Therefore, we suggest to combine the two frameworks in order
to obtain an understandable representation over richer, domain-relevant
algebraic predicates. We demonstrate and evaluate the proposed method
experimentally on established benchmarks.
- Abstract(参考訳): 近年、意思決定木(DT)は、コントローラ(戦略、ポリシー、スケジューラなど)の説明可能な表現として使われている。
それらはしばしば非常に効率的であり、離散システムのための小さく理解可能なコントローラを生成するが、複雑な連続力学は依然として課題である。
特に、変数間の関係が多項式のようなより複雑な形式を取るとき、それらは利用可能なDT学習手順では得られない。
対照的に、サポートベクトルマシンはより強力な表現を提供し、そのような関係の多くを発見することができるが、説明可能な形式ではない。
したがって、よりリッチでドメイン関連のある代数述語に対する理解可能な表現を得るために、この2つのフレームワークを組み合わせることを提案する。
提案手法を確立されたベンチマーク上で実験的に実証し評価する。
関連論文リスト
- Demystifying the Hypercomplex: Inductive Biases in Hypercomplex Deep Learning [23.501824517684465]
本稿では,超複雑深層学習手法がなぜ成功し,その可能性をどのように活用できるかを理解するための枠組みを提供する。
超複素領域における特定の帰納バイアスを導出できることを示す。
これらのバイアスは、これらの領域の特徴的な性質や多次元および多モード信号の複素構造を管理するのに有効である。
論文 参考訳(メタデータ) (2024-05-11T14:41:48Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Even-if Explanations: Formal Foundations, Priorities and Complexity [18.126159829450028]
線形モデルとツリーモデルの両方がニューラルネットワークよりも厳密に解釈可能であることを示す。
ユーザが好みに基づいて説明をパーソナライズすることのできる、嗜好に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-17T11:38:58Z) - Large Language Models as General Pattern Machines [64.75501424160748]
我々は,事前訓練された大規模言語モデル (LLM) が,複雑なトークンシーケンスを自動回帰的に完了することを示す。
驚いたことに、語彙からランダムにサンプリングされたトークンを用いてシーケンスが表現された場合でも、パターン完了の習熟度を部分的に保持することができる。
本研究では,ロボット工学における問題に対して,これらのゼロショット機能がどのように適用されるかを検討する。
論文 参考訳(メタデータ) (2023-07-10T17:32:13Z) - DeforestVis: Behavior Analysis of Machine Learning Models with Surrogate Decision Stumps [46.58231605323107]
複雑なMLモデルの振る舞いを要約する視覚解析ツールであるDeforestVisを提案する。
DeforestVisは、より多くの切り株をインクリメンタルに生成することで、複雑さとフィデリティのトレードオフを探索するのに役立つ。
DeforestVisの適用性と有用性について,2つのユースケースと,データアナリストとモデル開発者とのエキスパートインタビューで紹介する。
論文 参考訳(メタデータ) (2023-03-31T21:17:15Z) - Successive Prompting for Decomposing Complex Questions [50.00659445976735]
最近の研究は、大規模言語モデル(LM)の機能を活用して、数ショットで複雑な質問応答を行う。
そこでは、複雑なタスクを単純なタスクに繰り返し分解し、それを解決し、最終解を得るまでプロセスを繰り返します。
我々の最良のモデル(逐次プロンプト付き)は、DROPデータセットの数ショットバージョンにおいて、5%の絶対F1の改善を実現します。
論文 参考訳(メタデータ) (2022-12-08T06:03:38Z) - DyTed: Disentangled Representation Learning for Discrete-time Dynamic
Graph [59.583555454424]
離散時間動的グラフ、すなわちDyTedのための新しいディペンタングル表現学習フレームワークを提案する。
本研究では,時間不変の表現と時間変動の表現を効果的に識別する構造的コントラスト学習とともに,時間的クリップのコントラスト学習タスクを特別に設計する。
論文 参考訳(メタデータ) (2022-10-19T14:34:12Z) - Adaptive Discrete Communication Bottlenecks with Dynamic Vector
Quantization [76.68866368409216]
入力に条件付けされた離散化の厳密度を動的に選択する学習を提案する。
コミュニケーションボトルネックの動的に変化する厳密さは、視覚的推論や強化学習タスクにおけるモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-02-02T23:54:26Z) - Rational Shapley Values [0.0]
ポストホックな説明可能な人工知能(XAI)の一般的なツールは、文脈に敏感であるか、要約が難しい。
非互換なアプローチを合成し拡張する新しいXAI手法である、エミュレーション型シェープリー値を導入する。
私は、意思決定理論や因果モデリングのツールを活用して、XAIにおける多くの既知の課題を解決する実用的なアプローチを定式化し、実装します。
論文 参考訳(メタデータ) (2021-06-18T15:45:21Z) - Text Modular Networks: Learning to Decompose Tasks in the Language of
Existing Models [61.480085460269514]
本稿では,既存のモデルで解けるより単純なモデルに分解することで,複雑なタスクを解くための解釈可能なシステムを構築するためのフレームワークを提案する。
我々はこのフレームワークを用いて、ニューラルネットワークのファクトイド単一スパンQAモデルとシンボリック電卓で答えられるサブクエストに分解することで、マルチホップ推論問題に答えられるシステムであるModularQAを構築する。
論文 参考訳(メタデータ) (2020-09-01T23:45:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。