論文の概要: LEx: A Framework for Operationalising Layers of Machine Learning
Explanations
- arxiv url: http://arxiv.org/abs/2104.09612v1
- Date: Thu, 15 Apr 2021 23:31:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 19:48:17.489331
- Title: LEx: A Framework for Operationalising Layers of Machine Learning
Explanations
- Title(参考訳): LEx: マシンラーニングの説明層を運用するためのフレームワーク
- Authors: Ronal Singh, Upol Ehsan, Marc Cheong, Mark O. Riedl, Tim Miller
- Abstract要約: textitlayers of explanation (lex) と呼ばれるフレームワークを定義します。
このフレームワークは、特徴のテキスト感受性(感情応答性)の概念と、ドメイン内のテキストテイク(決定の結果)のレベルを使用して、異なる種類の説明が与えられたコンテキストでテキスト適切かどうかを決定します。
このフレームワークを使用して、異なるドメインのさまざまな種類の説明の適切性を評価する方法をデモします。
- 参考スコア(独自算出の注目度): 10.46427915540552
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Several social factors impact how people respond to AI explanations used to
justify AI decisions affecting them personally. In this position paper, we
define a framework called the \textit{layers of explanation} (LEx), a lens
through which we can assess the appropriateness of different types of
explanations. The framework uses the notions of \textit{sensitivity} (emotional
responsiveness) of features and the level of \textit{stakes} (decision's
consequence) in a domain to determine whether different types of explanations
are \textit{appropriate} in a given context. We demonstrate how to use the
framework to assess the appropriateness of different types of explanations in
different domains.
- Abstract(参考訳): いくつかの社会的要因は、人々がaiの説明にどう反応するかに影響する。
本稿では, 様々な説明の適切性を評価するためのレンズである, \textit{layers of explanation} (lex) というフレームワークを定義する。
このフレームワークは、特徴の \textit{sensitivity} (感情応答性) の概念とドメイン内の \textit{stakes} (決定の結果) のレベルを使って、異なるタイプの説明が与えられたコンテキストにおける \textit{ appropriate} であるかどうかを決定する。
このフレームワークを用いて、異なるドメインにおける異なるタイプの説明の適切性を評価する方法を示す。
関連論文リスト
- An Ontology-Enabled Approach For User-Centered and Knowledge-Enabled Explanations of AI Systems [0.3480973072524161]
説明可能性に関する最近の研究は、AIモデルやモデル説明可能性の動作を説明することに重点を置いている。
この論文は、モデルとユーザ中心の説明可能性の間のギャップを埋めようとしている。
論文 参考訳(メタデータ) (2024-10-23T02:03:49Z) - Fool Me Once? Contrasting Textual and Visual Explanations in a Clinical Decision-Support Setting [43.110187812734864]
視覚的説明(可用性マップ)、自然言語の説明、両方のモダリティの組み合わせの3種類の説明を評価した。
テキストに基づく説明は、高い信頼度をもたらすことが分かっており、従順マップと組み合わせることで軽減される。
また、説明の質、すなわち、それがどれだけ事実的に正しい情報であり、それがAIの正しさとどの程度一致しているかが、異なる説明タイプの有用性に大きく影響していることも観察します。
論文 参考訳(メタデータ) (2024-10-16T06:43:02Z) - The Shape of Explanations: A Topological Account of Rule-Based
Explanations in Machine Learning [0.0]
本稿では,ルールに基づく説明手法の枠組みを導入し,説明可能性の評価を行う。
好みのスキームは、ユーザがドメインについてどれだけ知っているかと、特徴空間上の確率測度に依存すると我々は主張する。
論文 参考訳(メタデータ) (2023-01-22T02:58:00Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - Sensible AI: Re-imagining Interpretability and Explainability using
Sensemaking Theory [14.35488479818285]
Weickのセンスメイキング理論に基づく解釈可能性の代替的枠組みを提案する。
私たちは、Sensible AIの設計ガイドラインを議論するためのテンプレートとして、組織におけるセンスメイキングの応用を使用します。
論文 参考訳(メタデータ) (2022-05-10T17:20:44Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - A computational model implementing subjectivity with the 'Room Theory'.
The case of detecting Emotion from Text [68.8204255655161]
本研究は,テキスト分析における主観性と一般的文脈依存性を考慮した新しい手法を提案する。
単語間の類似度を用いて、ベンチマーク中の要素の相対的関連性を抽出することができる。
この方法は、主観的評価がテキストの相対値や意味を理解するために関係しているすべてのケースに適用できる。
論文 参考訳(メタデータ) (2020-05-12T21:26:04Z) - Explainable Deep Classification Models for Domain Generalization [94.43131722655617]
説明は、深い分類網が決定を下す視覚的証拠の領域として定義される。
トレーニング戦略は周期的な正当性に基づくフィードバックを強制し、モデルが地中真実に直接対応する画像領域に焦点を合わせることを奨励する。
論文 参考訳(メタデータ) (2020-03-13T22:22:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。