論文の概要: LIMEADE: From AI Explanations to Advice Taking
- arxiv url: http://arxiv.org/abs/2003.04315v4
- Date: Wed, 12 Oct 2022 22:45:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 08:34:31.963461
- Title: LIMEADE: From AI Explanations to Advice Taking
- Title(参考訳): LIMEADE: AI説明からアドバイスまで
- Authors: Benjamin Charles Germain Lee, Doug Downey, Kyle Lo, Daniel S. Weld
- Abstract要約: ポジティブなアドバイスとネガティブなアドバイスの両方を、任意の基盤となる不透明なモデルに変換する最初のフレームワークであるLIMEADEを紹介します。
画像分類領域の厳密なベースラインに比べて精度が向上することを示す。
テキストのモダリティについては、公開ウェブサイト上の科学論文のニューラルレコメンデータシステムに適用する。
- 参考スコア(独自算出の注目度): 34.581205516506614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Research in human-centered AI has shown the benefits of systems that can
explain their predictions. Methods that allow an AI to take advice from humans
in response to explanations are similarly useful. While both capabilities are
well-developed for transparent learning models (e.g., linear models and
GA$^2$Ms), and recent techniques (e.g., LIME and SHAP) can generate
explanations for opaque models, little attention has been given to advice
methods for opaque models. This paper introduces LIMEADE, the first general
framework that translates both positive and negative advice (expressed using
high-level vocabulary such as that employed by post-hoc explanations) into an
update to an arbitrary, underlying opaque model. We demonstrate the generality
of our approach with case studies on seventy real-world models across two broad
domains: image classification and text recommendation. We show our method
improves accuracy compared to a rigorous baseline on the image classification
domains. For the text modality, we apply our framework to a neural recommender
system for scientific papers on a public website; our user study shows that our
framework leads to significantly higher perceived user control, trust, and
satisfaction.
- Abstract(参考訳): 人間中心のAIの研究は、予測を説明できるシステムの利点を示している。
説明に反応してAIが人間からアドバイスを受ける方法も同様に有用である。
どちらの能力も透明な学習モデル(線形モデルやGA$^2$Msなど)でよく開発されているが、近年の手法(LIMEやSHAPなど)は不透明なモデルに対する説明を生成できるが、不透明なモデルのアドバイス方法にはほとんど注目されていない。
本稿では, 肯定的, 否定的アドバイス(ポストホックな説明など高レベルの語彙で表現される)を任意の不透明なモデルに変換する最初の一般的なフレームワークであるLIMEADEを紹介する。
画像分類とテキストレコメンデーションという2つの広いドメインにわたる70の実世界モデルのケーススタディを用いて,このアプローチの汎用性を示す。
本手法は,画像分類領域における厳密なベースラインと比較して精度が向上することを示す。
テキストのモダリティについて、我々のフレームワークを公開ウェブサイト上の科学論文のニューラルレコメンデータシステムに適用し、我々のユーザスタディは、我々のフレームワークがユーザコントロール、信頼、満足度を著しく高めることを示している。
関連論文リスト
- Advancing Post Hoc Case Based Explanation with Feature Highlighting [0.8287206589886881]
テスト画像中の複数の明瞭な特徴部分を分離し、トレーニングデータに見られる説明事例に接続する2つの一般的なアルゴリズムを提案する。
提案手法は,実世界データにおける曖昧な分類に対して,ユーザの「正確さ」感を適切に校正することを示す。
論文 参考訳(メタデータ) (2023-11-06T16:34:48Z) - A Sentence Speaks a Thousand Images: Domain Generalization through
Distilling CLIP with Language Guidance [41.793995960478355]
大規模視覚言語モデルにおける最近の進歩を生かした領域一般化のための新しい手法を提案する。
鍵となる技術的貢献は、生徒の学習した画像表現が教師の学習したテキスト表現に近いことを要求する新しいタイプの正規化である。
提案手法はRISEと呼ばれ,様々なベンチマークデータセットを用いて評価し,最先端の領域一般化手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-09-21T23:06:19Z) - GPT4Image: Can Large Pre-trained Models Help Vision Models on Perception
Tasks? [51.22096780511165]
本稿では,大規模な事前学習モデルから抽出した知識を利用して,CNN や ViT などのモデルが拡張表現を学習するのを支援する新しい学習パラダイムを提案する。
我々は、詳細な記述を事前訓練されたエンコーダに入力し、画像の内容をエンコードするリッチなセマンティック情報でテキスト埋め込みを抽出する。
論文 参考訳(メタデータ) (2023-06-01T14:02:45Z) - Unleashing Text-to-Image Diffusion Models for Visual Perception [84.41514649568094]
VPD (Visual Perception with a pre-trained diffusion model) は、視覚知覚タスクにおいて、事前訓練されたテキスト・画像拡散モデルの意味情報を利用する新しいフレームワークである。
本稿では,提案したVPDを用いて,下流の視覚的タスクに迅速に適応できることを示す。
論文 参考訳(メタデータ) (2023-03-03T18:59:47Z) - ExAgt: Expert-guided Augmentation for Representation Learning of Traffic
Scenarios [8.879790406465558]
本稿では,交通シナリオの拡張のためのエキスパート知識を含む新しい手法であるExAgtを提案する。
ExAgt法は2つの最先端のクロスビュー予測法に適用される。
その結果,ExAgt法は,標準拡張法よりも表現学習を改善することがわかった。
論文 参考訳(メタデータ) (2022-07-18T13:55:48Z) - DenseCLIP: Language-Guided Dense Prediction with Context-Aware Prompting [91.56988987393483]
本稿では,CLIPから事前学習した知識を暗黙的かつ明示的に活用することで,高密度予測のための新しい枠組みを提案する。
具体的には,CLIPにおける元の画像テキストマッチング問題を画素テキストマッチング問題に変換し,画素テキストスコアマップを用いて高密度予測モデルの学習を指導する。
本手法は,任意の密集予測システムや種々の事前学習された視覚バックボーンに適用可能な,モデルに依存しない手法である。
論文 参考訳(メタデータ) (2021-12-02T18:59:32Z) - A Practical Tutorial on Explainable AI Techniques [5.671062637797752]
このチュートリアルは、コンピュータサイエンスのバックグラウンドを持つすべての読者にとって、手書きの教科書となることを意図している。
機械学習モデルの直感的な洞察を得ることを目標としている。
論文 参考訳(メタデータ) (2021-11-13T17:47:31Z) - A Survey on Neural Recommendation: From Collaborative Filtering to
Content and Context Enriched Recommendation [70.69134448863483]
レコメンデーションの研究は、ニューラルネットワークに基づく新しいレコメンダーモデルの発明にシフトした。
近年,神経リコメンデータモデルの開発が著しい進展を遂げている。
論文 参考訳(メタデータ) (2021-04-27T08:03:52Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。