論文の概要: Anytime Generation of Counterfactual Explanations for Text
Classification
- arxiv url: http://arxiv.org/abs/2211.00369v1
- Date: Tue, 1 Nov 2022 10:34:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 13:07:46.861238
- Title: Anytime Generation of Counterfactual Explanations for Text
Classification
- Title(参考訳): テキスト分類のための反事実説明の任意の時間生成
- Authors: Daniel Gilo and Shaul Markovitch
- Abstract要約: 本稿では,テキスト領域における反実的説明を生成するためのフレームワークを提案する。
私たちのフレームワークは、モデル非依存、表現非依存、ドメイン非依存、そしていつでもです。
我々のフレームワークはドメインに依存しない演算子を含むが、特殊な演算子を通してドメイン固有の知識を利用することもできる。
- 参考スコア(独自算出の注目度): 4.797216015572358
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In many machine learning applications, it is important for the user to
understand the reasoning behind the recommendation or prediction of the
classifiers. The learned models, however, are often too complicated to be
understood by a human. Research from the social sciences indicates that humans
prefer counterfactual explanations over alternatives. In this paper, we present
a general framework for generating counterfactual explanations in the textual
domain. Our framework is model-agnostic, representation-agnostic,
domain-agnostic, and anytime. We model the task as a search problem in a space
where the initial state is the classified text, and the goal state is a text in
the complementary class. The operators transform a text by replacing parts of
it. Our framework includes domain-independent operators, but can also exploit
domain-specific knowledge through specialized operators. The search algorithm
attempts to find a text from the complementary class with minimal word-level
Levenshtein distance from the original classified object.
- Abstract(参考訳): 多くの機械学習アプリケーションにおいて、ユーザーは分類器の推薦や予測の背後にある推論を理解することが重要である。
しかし、学習されたモデルは、しばしば人間によって理解されるには複雑すぎる。
社会科学の研究は、人間が代替手段よりも反実的な説明を好むことを示している。
本稿では,テキスト領域における反実的説明を生成するための一般的な枠組みを提案する。
私たちのフレームワークは、モデル非依存、表現非依存、ドメイン非依存、そしていつでもです。
我々は,初期状態が分類されたテキストであり,目標状態が補完クラス内のテキストである空間における探索問題としてタスクをモデル化する。
オペレータはその部分を置き換えることでテキストを変換する。
我々のフレームワークはドメインに依存しない演算子を含むが、特殊な演算子を通してドメイン固有の知識を利用することもできる。
探索アルゴリズムは、元の分類対象から最小の単語レベルLevenshtein距離を持つ補完クラスからテキストを見つけようとする。
関連論文リスト
- Attacking Misinformation Detection Using Adversarial Examples Generated by Language Models [0.0]
テキスト分類アルゴリズムのロバスト性をテストするために,逆例を生成するという課題について検討する。
我々は、攻撃者が試すことができるクエリ数に現実的な制限を設定することで、コンテンツモデレーションのシミュレーションに焦点を当てる。
論文 参考訳(メタデータ) (2024-10-28T11:46:30Z) - SciPrompt: Knowledge-augmented Prompting for Fine-grained Categorization of Scientific Topics [2.3742710594744105]
SciPromptは,低リソーステキスト分類タスクに対して,科学的トピック関連用語を自動的に検索するフレームワークである。
本手法は, ほとんど, ゼロショット設定下での科学的テキスト分類作業において, 最先端, 即時的な微調整法より優れる。
論文 参考訳(メタデータ) (2024-10-02T18:45:04Z) - Unified Language-driven Zero-shot Domain Adaptation [55.64088594551629]
Unified Language-driven Zero-shot Domain Adaptation (ULDA)は、新しいタスクセットである。
これにより、ドメインIDの知識を明示することなく、単一のモデルを多様なターゲットドメインに適応させることができる。
論文 参考訳(メタデータ) (2024-04-10T16:44:11Z) - Generative Multi-modal Models are Good Class-Incremental Learners [51.5648732517187]
クラス増分学習のための新しい生成型マルチモーダルモデル(GMM)フレームワークを提案する。
提案手法は適応生成モデルを用いて画像のラベルを直接生成する。
Few-shot CIL設定では、現在の最先端のすべてのメソッドに対して少なくとも14%精度が向上し、忘れてはならない。
論文 参考訳(メタデータ) (2024-03-27T09:21:07Z) - Language Models for Text Classification: Is In-Context Learning Enough? [54.869097980761595]
最近の基礎言語モデルでは、ゼロショットや少数ショットの設定で多くのNLPタスクで最先端のパフォーマンスが示されている。
より標準的なアプローチよりもこれらのモデルの利点は、自然言語(prompts)で書かれた命令を理解する能力である。
これにより、アノテーション付きインスタンスが限られているドメインのテキスト分類問題に対処するのに適している。
論文 参考訳(メタデータ) (2024-03-26T12:47:39Z) - TextFormer: A Query-based End-to-End Text Spotter with Mixed Supervision [61.186488081379]
Transformerアーキテクチャを用いた問合せベースのエンドツーエンドテキストスポッターであるTextFormerを提案する。
TextFormerは、画像エンコーダとテキストデコーダの上に構築され、マルチタスクモデリングのための共同セマンティック理解を学ぶ。
分類、セグメンテーション、認識のブランチの相互訓練と最適化を可能にし、より深い特徴共有をもたらす。
論文 参考訳(メタデータ) (2023-06-06T03:37:41Z) - Label Agnostic Pre-training for Zero-shot Text Classification [4.9081735096855565]
現実世界の応用では、与えられたテキストを記述するための無限ラベル空間が存在する。
我々は2つの新しいシンプルで効果的な事前学習戦略、ImplicitとExplicitの事前学習を導入する。
これらのメソッドは、タスクレベルの理解を構築するためにモデルを条件付けすることを目的として、列車時のモデルにアスペクトレベルの理解を注入します。
論文 参考訳(メタデータ) (2023-05-25T22:55:32Z) - A Question Answering Framework for Decontextualizing User-facing
Snippets from Scientific Documents [47.39561727838956]
言語モデルを使って、科学文書からスニペットを書き直して、自分で読むことができます。
本稿では,タスクを質問生成,質問応答,書き直しの3段階に分割するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-24T06:23:02Z) - CLIP the Gap: A Single Domain Generalization Approach for Object
Detection [60.20931827772482]
単一ドメインの一般化(Single Domain Generalization)は、単一のソースドメイン上でモデルをトレーニングすることで、目に見えないターゲットドメインに一般化する問題に取り組む。
本稿では、事前学習された視覚言語モデルを用いて、テキストプロンプトを介して意味領域の概念を導入することを提案する。
本手法は,検出器のバックボーンから抽出した特徴に作用する意味的拡張戦略と,テキストに基づく分類損失によって実現される。
論文 参考訳(メタデータ) (2023-01-13T12:01:18Z) - Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods
in Natural Language Processing [78.8500633981247]
本稿では,自然言語処理における新たなパラダイムにおける研究成果の探索と整理を行う。
入力xを取り込んで出力yをP(y|x)として予測するようにモデルを訓練する従来の教師付き学習とは異なり、プロンプトベースの学習は直接テキストの確率をモデル化する言語モデルに基づいている。
論文 参考訳(メタデータ) (2021-07-28T18:09:46Z) - Automatic Discovery of Novel Intents & Domains from Text Utterances [18.39942131996558]
本稿では,ラベルのない大量のデータから新しいドメインや意図を自動的に発見する新しいフレームワークADVINを提案する。
ADVINは3つのベンチマークデータセットのベースラインと、商用音声処理エージェントからの実際のユーザ発話を大きく上回る。
論文 参考訳(メタデータ) (2020-05-22T00:47:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。