論文の概要: Evaluation Metrics for Symbolic Knowledge Extracted from Machine
Learning Black Boxes: A Discussion Paper
- arxiv url: http://arxiv.org/abs/2211.00238v1
- Date: Tue, 1 Nov 2022 03:04:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 13:06:07.101515
- Title: Evaluation Metrics for Symbolic Knowledge Extracted from Machine
Learning Black Boxes: A Discussion Paper
- Title(参考訳): 機械学習ブラックボックスから抽出した記号的知識の評価指標--討論論文
- Authors: Federico Sabbatini and Roberta Calegari
- Abstract要約: 抽出した知識の可読性のレベルを定量的に評価する方法はまだ未解決の問題である。
そのような計量を見つけることが、例えば、異なる知識表現の集合間の自動比較を可能にする鍵となる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As opaque decision systems are being increasingly adopted in almost any
application field, issues about their lack of transparency and human
readability are a concrete concern for end-users. Amongst existing proposals to
associate human-interpretable knowledge with accurate predictions provided by
opaque models, there are rule extraction techniques, capable of extracting
symbolic knowledge out of an opaque model. However, how to assess the level of
readability of the extracted knowledge quantitatively is still an open issue.
Finding such a metric would be the key, for instance, to enable automatic
comparison between a set of different knowledge representations, paving the way
for the development of parameter autotuning algorithms for knowledge
extractors. In this paper we discuss the need for such a metric as well as the
criticalities of readability assessment and evaluation, taking into account the
most common knowledge representations while highlighting the most puzzling
issues.
- Abstract(参考訳): ほぼすべてのアプリケーション分野で不透明な意思決定システムが採用されているため、透明性の欠如と人間の可読性に関する問題は、エンドユーザーにとって特に懸念事項である。
人間の解釈可能な知識と不透明なモデルによる正確な予測を関連付ける既存の提案の中に、不透明なモデルから記号的知識を抽出することができる規則抽出技術がある。
しかし,抽出した知識の可読性レベルを定量的に評価する方法はまだ未解決の課題である。
そのようなメトリックを見つけることは、例えば、異なる知識表現の集合同士の自動比較を可能にするための鍵であり、知識抽出者のためのパラメータの自動チューニングアルゴリズムの開発の道を開く。
本稿では,このような指標の必要性と,可読性評価と評価の臨界性について考察し,最も一般的な知識表現を考慮し,最も厄介な問題を強調した。
関連論文リスト
- SOK-Bench: A Situated Video Reasoning Benchmark with Aligned Open-World Knowledge [60.76719375410635]
44Kの質問と10Kの状況からなる新しいベンチマーク(SOK-Bench)を提案する。
推論プロセスは、位置する知識と問題解決のための一般的な知識を理解し、適用するために必要である。
質問応答ペアと推論プロセスを生成し,最後に品質保証に関する手作業によるレビューを行った。
論文 参考訳(メタデータ) (2024-05-15T21:55:31Z) - A Survey of Explainable Knowledge Tracing [14.472784840283099]
本稿では,KTアルゴリズムの解釈可能性について詳細に解析する。
説明可能な知識追跡のための現在の評価方法が不足している。
本稿では,教育関係者の視点から評価手法について考察する。
論文 参考訳(メタデータ) (2024-03-12T03:17:59Z) - A Unified End-to-End Retriever-Reader Framework for Knowledge-based VQA [67.75989848202343]
本稿では,知識に基づくVQAに向けて,エンド・ツー・エンドのレトリバー・リーダー・フレームワークを提案する。
我々は、視覚言語による事前学習モデルからの多モーダルな暗黙の知識に光を当て、知識推論の可能性を掘り下げた。
提案手法では,知識検索のガイダンスを提供するだけでなく,質問応答に対してエラーが発生しやすいケースも排除できる。
論文 参考訳(メタデータ) (2022-06-30T02:35:04Z) - KAT: A Knowledge Augmented Transformer for Vision-and-Language [56.716531169609915]
我々は、OK-VQAのオープンドメインマルチモーダルタスクにおいて、最先端の強力な結果をもたらす新しいモデルである知識拡張トランスフォーマー(KAT)を提案する。
提案手法は,エンド・ツー・エンドのエンコーダ・デコーダアーキテクチャにおいて暗黙的かつ明示的な知識を統合しつつ,回答生成時に両知識源を共同で推論する。
我々の分析では、モデル予測の解釈可能性の向上に、明示的な知識統合のさらなる利点が見られる。
論文 参考訳(メタデータ) (2021-12-16T04:37:10Z) - Uncertainty Quantification of Surrogate Explanations: an Ordinal
Consensus Approach [1.3750624267664155]
我々は, 多様な自己記述型サロゲート説明器の集合間のコンセンサスを測定することによって, 与えられた説明の不確かさを推定する。
我々は、最先端の畳み込みニューラルネットワークアンサンブルの実験を通して、このアプローチの特性を実証的に説明する。
論文 参考訳(メタデータ) (2021-11-17T13:55:58Z) - On the Objective Evaluation of Post Hoc Explainers [10.981508361941335]
機械学習研究の最近の傾向は、それらがブラックボックスであると考えられる程度に、ますます複雑化しているアルゴリズムにつながっている。
意思決定の不透明度を低減するため、そのようなモデルの内部動作を人間に理解可能な方法で解釈する手法が提案されている。
本稿では,モデルの加法構造から直接導出される地底真理に基づくポストホック説明器の評価のための枠組みを提案する。
論文 参考訳(メタデータ) (2021-06-15T19:06:51Z) - Reasoning over Vision and Language: Exploring the Benefits of
Supplemental Knowledge [59.87823082513752]
本稿では,汎用知識基盤(KB)から視覚言語変換器への知識の注入について検討する。
我々は複数のタスクやベンチマークに対する様々なkbの関連性を実証的に研究する。
この技術はモデルに依存しず、最小限の計算オーバーヘッドで任意の視覚言語変換器の適用可能性を拡張することができる。
論文 参考訳(メタデータ) (2021-01-15T08:37:55Z) - KRISP: Integrating Implicit and Symbolic Knowledge for Open-Domain
Knowledge-Based VQA [107.7091094498848]
VQAの最も難しい質問の1つは、質問に答えるために画像に存在しない外部の知識を必要とする場合です。
本研究では,解答に必要な知識が与えられたり記入されたりしないオープンドメイン知識を,トレーニング時やテスト時にも検討する。
知識表現と推論には2つのタイプがあります。
まず、トランスベースのモデルで教師なし言語事前トレーニングと教師付きトレーニングデータから効果的に学ぶことができる暗黙的な知識。
論文 参考訳(メタデータ) (2020-12-20T20:13:02Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。