論文の概要: IFAN: An Explainability-Focused Interaction Framework for Humans and NLP
Models
- arxiv url: http://arxiv.org/abs/2303.03124v1
- Date: Mon, 6 Mar 2023 13:37:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 16:06:26.367382
- Title: IFAN: An Explainability-Focused Interaction Framework for Humans and NLP
Models
- Title(参考訳): IFAN:人間とNLPモデルのための説明可能性に基づくインタラクションフレームワーク
- Authors: Edoardo Mosca, Daryna Dementieva, Tohid Ebrahim Ajdari, Maximilian
Kummeth, Kirill Gringauz and Georg Groh
- Abstract要約: 解釈可能性と人間の監視は、複雑なNLPモデルを現実世界のアプリケーションにデプロイする基本的な柱である。
NLPモデルとのリアルタイムな説明に基づくインタラクションのためのフレームワークIFANを提案する。
- 参考スコア(独自算出の注目度): 1.9719016037240154
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Interpretability and human oversight are fundamental pillars of deploying
complex NLP models into real-world applications. However, applying
explainability and human-in-the-loop methods requires technical proficiency.
Despite existing toolkits for model understanding and analysis, options to
integrate human feedback are still limited. We propose IFAN, a framework for
real-time explanation-based interaction with NLP models. Through IFAN's
interface, users can provide feedback to selected model explanations, which is
then integrated through adapter layers to align the model with human rationale.
We show the system to be effective in debiasing a hate speech classifier with
minimal performance loss. IFAN also offers a visual admin system and API to
manage models (and datasets) as well as control access rights. A demo is live
at https://ifan.ml/
- Abstract(参考訳): 解釈可能性と人間の監視は、複雑なNLPモデルを現実世界のアプリケーションにデプロイする基本的な柱である。
しかし、説明可能性と人道的手法を適用するには、技術的熟練が必要である。
モデル理解と分析のための既存のツールキットにもかかわらず、人間のフィードバックを統合するオプションはまだ限られている。
NLPモデルとのリアルタイムな説明に基づくインタラクションフレームワークIFANを提案する。
IFANのインターフェースを通じて、ユーザーは選択したモデル説明に対してフィードバックを提供することができる。
本稿では,ヘイトスピーチ分類器の劣化を最小性能損失で抑制するシステムを提案する。
IFANはまた、モデル(とデータセット)を管理し、アクセス権を制御するビジュアルアドミンシステムとAPIも提供する。
デモはhttps://ifan.ml/で公開されている。
関連論文リスト
- An Interpretable Ensemble of Graph and Language Models for Improving
Search Relevance in E-Commerce [22.449320058423886]
プラグアンドプレイグラフLanguage Model (PP-GLAM) を提案する。
このアプローチでは、均一なデータ処理パイプラインを備えたモジュラーフレームワークを使用します。
PP-GLAMは,実世界のマルチリンガル,マルチリージョンのeコマースデータセット上で,最先端のベースラインとプロプライエタリなモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-01T19:08:25Z) - Model-agnostic Body Part Relevance Assessment for Pedestrian Detection [4.405053430046726]
歩行者検出のための身体部分関連性評価によるコンピュータビジョンコンテキストにおけるサンプリングに基づく説明モデルを用いたフレームワークを提案する。
我々は,KernelSHAPに類似した新しいサンプリングベース手法を導入し,サンプリングサイズを小さくするために,より堅牢性を示し,大規模データセットにおける説明可能性解析に有効であることを示す。
論文 参考訳(メタデータ) (2023-11-27T10:10:25Z) - InterroLang: Exploring NLP Models and Datasets through Dialogue-based
Explanations [8.833264791078825]
我々は,対話型説明フレームワークTalkToModelをNLPドメインに適用し,自由文合理化などの新たなNLP固有の操作を追加する。
説明のためのユーザクエリを識別するために、微調整および少数ショットプロンプトモデルの評価を行った。
本研究は,(1) 対話の正当性と有用性,(2) 再現性に関する2つのユーザスタディである。
論文 参考訳(メタデータ) (2023-10-09T10:27:26Z) - FIND: A Function Description Benchmark for Evaluating Interpretability
Methods [86.80718559904854]
本稿では,自動解釈可能性評価のためのベンチマークスイートであるFIND(Function Interpretation and Description)を紹介する。
FINDには、トレーニングされたニューラルネットワークのコンポーネントに似た機能と、私たちが生成しようとしている種類の記述が含まれています。
本研究では、事前訓練された言語モデルを用いて、自然言語とコードにおける関数の振る舞いの記述を生成する手法を評価する。
論文 参考訳(メタデータ) (2023-09-07T17:47:26Z) - Using Explanations to Guide Models [68.64377323216817]
モデルガイダンスは、時にはモデルパフォーマンスも改善できることを示す。
本研究では,物体の特徴に着目したモデルの有効性を示す新しいエネルギー損失を提案する。
また、バウンディングボックスアノテーションのわずかな部分でも、これらのゲインが達成可能であることも示しています。
論文 参考訳(メタデータ) (2023-03-21T15:34:50Z) - Predictable MDP Abstraction for Unsupervised Model-Based RL [93.91375268580806]
予測可能なMDP抽象化(PMA)を提案する。
元のMDPで予測モデルを訓練する代わりに、学習されたアクション空間を持つ変換MDPでモデルを訓練する。
我々はPMAを理論的に解析し、PMAが以前の教師なしモデルベースRLアプローチよりも大幅に改善することを示す。
論文 参考訳(メタデータ) (2023-02-08T07:37:51Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - XMD: An End-to-End Framework for Interactive Explanation-Based Debugging
of NLP Models [33.81019305179569]
説明に基づくモデルデバッギングは,モデル動作の説明を人間に示すことによって,突発的なバイアスを解決することを目的としている。
我々は、説明に基づくモデルデバッグのための、最初のオープンソースのエンドツーエンドフレームワークであるXMDを提案する。
XMDは、モデルがユーザーのフィードバックと一致するように規則化することで、モデルをリアルタイムで更新する。
論文 参考訳(メタデータ) (2022-10-30T23:09:09Z) - Switchable Representation Learning Framework with Self-compatibility [50.48336074436792]
自己整合性(SFSC)を考慮した交換可能な表現学習フレームワークを提案する。
SFSCは1つのトレーニングプロセスを通じて、異なる能力を持つ一連の互換性のあるサブモデルを生成する。
SFSCは評価データセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-06-16T16:46:32Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Interactively Generating Explanations for Transformer Language Models [14.306470205426526]
トランスフォーマー言語モデルは、多くのNLPタスクにおいて最先端である。
最近の手法はブラックボックスモデルに対する解釈可能性と説明可能性を提供することを目的としている。
モデルアーキテクチャに直接組み込まれたプロトタイプネットワークを使うことを強調した。
論文 参考訳(メタデータ) (2021-09-02T11:34:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。