論文の概要: Anytime Generation of Counterfactual Explanations for Text
Classification
- arxiv url: http://arxiv.org/abs/2211.00369v1
- Date: Tue, 1 Nov 2022 10:34:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 13:07:46.861238
- Title: Anytime Generation of Counterfactual Explanations for Text
Classification
- Title(参考訳): テキスト分類のための反事実説明の任意の時間生成
- Authors: Daniel Gilo and Shaul Markovitch
- Abstract要約: 本稿では,テキスト領域における反実的説明を生成するためのフレームワークを提案する。
私たちのフレームワークは、モデル非依存、表現非依存、ドメイン非依存、そしていつでもです。
我々のフレームワークはドメインに依存しない演算子を含むが、特殊な演算子を通してドメイン固有の知識を利用することもできる。
- 参考スコア(独自算出の注目度): 4.797216015572358
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In many machine learning applications, it is important for the user to
understand the reasoning behind the recommendation or prediction of the
classifiers. The learned models, however, are often too complicated to be
understood by a human. Research from the social sciences indicates that humans
prefer counterfactual explanations over alternatives. In this paper, we present
a general framework for generating counterfactual explanations in the textual
domain. Our framework is model-agnostic, representation-agnostic,
domain-agnostic, and anytime. We model the task as a search problem in a space
where the initial state is the classified text, and the goal state is a text in
the complementary class. The operators transform a text by replacing parts of
it. Our framework includes domain-independent operators, but can also exploit
domain-specific knowledge through specialized operators. The search algorithm
attempts to find a text from the complementary class with minimal word-level
Levenshtein distance from the original classified object.
- Abstract(参考訳): 多くの機械学習アプリケーションにおいて、ユーザーは分類器の推薦や予測の背後にある推論を理解することが重要である。
しかし、学習されたモデルは、しばしば人間によって理解されるには複雑すぎる。
社会科学の研究は、人間が代替手段よりも反実的な説明を好むことを示している。
本稿では,テキスト領域における反実的説明を生成するための一般的な枠組みを提案する。
私たちのフレームワークは、モデル非依存、表現非依存、ドメイン非依存、そしていつでもです。
我々は,初期状態が分類されたテキストであり,目標状態が補完クラス内のテキストである空間における探索問題としてタスクをモデル化する。
オペレータはその部分を置き換えることでテキストを変換する。
我々のフレームワークはドメインに依存しない演算子を含むが、特殊な演算子を通してドメイン固有の知識を利用することもできる。
探索アルゴリズムは、元の分類対象から最小の単語レベルLevenshtein距離を持つ補完クラスからテキストを見つけようとする。
関連論文リスト
- TextFormer: A Query-based End-to-End Text Spotter with Mixed Supervision [72.79006668848186]
Transformerアーキテクチャを用いた問合せベースのエンドツーエンドテキストスポッターであるTextFormerを提案する。
TextFormerは、画像エンコーダとテキストデコーダの上に構築され、マルチタスクモデリングのための共同セマンティック理解を学ぶ。
分類、セグメンテーション、認識のブランチの相互訓練と最適化を可能にし、より深い特徴共有をもたらす。
論文 参考訳(メタデータ) (2023-06-06T03:37:41Z) - Label Agnostic Pre-training for Zero-shot Text Classification [4.9081735096855565]
現実世界の応用では、与えられたテキストを記述するための無限ラベル空間が存在する。
我々は2つの新しいシンプルで効果的な事前学習戦略、ImplicitとExplicitの事前学習を導入する。
これらのメソッドは、タスクレベルの理解を構築するためにモデルを条件付けすることを目的として、列車時のモデルにアスペクトレベルの理解を注入します。
論文 参考訳(メタデータ) (2023-05-25T22:55:32Z) - A Question Answering Framework for Decontextualizing User-facing
Snippets from Scientific Documents [47.39561727838956]
言語モデルを使って、科学文書からスニペットを書き直して、自分で読むことができます。
本稿では,タスクを質問生成,質問応答,書き直しの3段階に分割するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-24T06:23:02Z) - nl2spec: Interactively Translating Unstructured Natural Language to
Temporal Logics with Large Language Models [3.1143846686797314]
大規模言語モデル(LLM)を適用するためのフレームワークであるnl2specは、構造化されていない自然言語から正式な仕様を導出する。
本稿では,自然言語におけるシステム要求のあいまいさを検知し,解決する新たな手法を提案する。
ユーザは、これらのサブ翻訳を反復的に追加、削除、編集して、不正なフォーマル化を修正する。
論文 参考訳(メタデータ) (2023-03-08T20:08:53Z) - CLIP the Gap: A Single Domain Generalization Approach for Object
Detection [60.20931827772482]
単一ドメインの一般化(Single Domain Generalization)は、単一のソースドメイン上でモデルをトレーニングすることで、目に見えないターゲットドメインに一般化する問題に取り組む。
本稿では、事前学習された視覚言語モデルを用いて、テキストプロンプトを介して意味領域の概念を導入することを提案する。
本手法は,検出器のバックボーンから抽出した特徴に作用する意味的拡張戦略と,テキストに基づく分類損失によって実現される。
論文 参考訳(メタデータ) (2023-01-13T12:01:18Z) - Classifiers are Better Experts for Controllable Text Generation [63.17266060165098]
提案手法は, PPLにおける最近のPPLM, GeDi, DExpertsよりも有意に優れており, 生成したテキストの外部分類器に基づく感情の精度が高いことを示す。
同時に、実装やチューニングも簡単で、制限や要件も大幅に少なくなります。
論文 参考訳(メタデータ) (2022-05-15T12:58:35Z) - FindIt: Generalized Localization with Natural Language Queries [43.07139534653485]
FindItは、さまざまな視覚的グラウンドとローカライゼーションタスクを統合する、シンプルで汎用的なフレームワークである。
我々のアーキテクチャの鍵は、異なるローカライゼーション要求を統一する効率的なマルチスケール融合モジュールである。
エンドツーエンドのトレーニング可能なフレームワークは、幅広い参照表現、ローカライゼーション、検出クエリに柔軟かつ正確に対応します。
論文 参考訳(メタデータ) (2022-03-31T17:59:30Z) - Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods
in Natural Language Processing [78.8500633981247]
本稿では,自然言語処理における新たなパラダイムにおける研究成果の探索と整理を行う。
入力xを取り込んで出力yをP(y|x)として予測するようにモデルを訓練する従来の教師付き学習とは異なり、プロンプトベースの学習は直接テキストの確率をモデル化する言語モデルに基づいている。
論文 参考訳(メタデータ) (2021-07-28T18:09:46Z) - Unsupervised Text Generation by Learning from Search [86.51619839836331]
TGLSは、教師なしテキスト生成のための新しいフレームワークである。
実世界の自然言語生成タスクであるパラフレーズ生成とテキストの形式化におけるTGLSの有効性を示す。
論文 参考訳(メタデータ) (2020-07-09T04:34:48Z) - Automatic Discovery of Novel Intents & Domains from Text Utterances [18.39942131996558]
本稿では,ラベルのない大量のデータから新しいドメインや意図を自動的に発見する新しいフレームワークADVINを提案する。
ADVINは3つのベンチマークデータセットのベースラインと、商用音声処理エージェントからの実際のユーザ発話を大きく上回る。
論文 参考訳(メタデータ) (2020-05-22T00:47:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。