論文の概要: A General Search-based Framework for Generating Textual Counterfactual
Explanations
- arxiv url: http://arxiv.org/abs/2211.00369v2
- Date: Sat, 16 Dec 2023 09:38:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 21:31:58.421881
- Title: A General Search-based Framework for Generating Textual Counterfactual
Explanations
- Title(参考訳): テキスト対実説明生成のための一般検索型フレームワーク
- Authors: Daniel Gilo and Shaul Markovitch
- Abstract要約: 本稿では,テキスト領域における反実的説明を生成するための検索ベースのフレームワークを提案する。
当社のフレームワークは、モデルに依存しない、ドメインに依存しない、いつでもです。
- 参考スコア(独自算出の注目度): 2.5563396001349297
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the prominent methods for explaining the decision of a
machine-learning classifier is by a counterfactual example. Most current
algorithms for generating such examples in the textual domain are based on
generative language models. Generative models, however, are trained to minimize
a specific loss function in order to fulfill certain requirements for the
generated texts. Any change in the requirements may necessitate costly
retraining, thus potentially limiting their applicability. In this paper, we
present a general search-based framework for generating counterfactual
explanations in the textual domain. Our framework is model-agnostic,
domain-agnostic, anytime, and does not require retraining in order to adapt to
changes in the user requirements. We model the task as a search problem in a
space where the initial state is the classified text, and the goal state is a
text in a given target class. Our framework includes domain-independent
modification operators, but can also exploit domain-specific knowledge through
specialized operators. The search algorithm attempts to find a text from the
target class with minimal user-specified distance from the original classified
object.
- Abstract(参考訳): 機械学習分類器の決定を説明する重要な方法の1つは、逆実例である。
テキスト領域でそのような例を生成するアルゴリズムのほとんどは、生成言語モデルに基づいている。
しかし生成モデルは、生成されたテキストに対する特定の要求を満たすために、特定の損失関数を最小化するように訓練される。
要件の変更は、コストのかかる再トレーニングを必要とする可能性があるため、適用性を制限する可能性がある。
本稿では,テキスト領域における対実的説明を生成する汎用的な検索ベースフレームワークを提案する。
私たちのフレームワークはモデル非依存で、ドメイン非依存で、いつでも、ユーザ要件の変更に対応するために再トレーニングを必要としません。
我々は,初期状態が分類されたテキストである空間における探索問題としてタスクをモデル化し,目標状態が与えられたターゲットクラスのテキストである。
我々のフレームワークはドメインに依存しない修正演算子を含むが、専門演算子を通してドメイン固有の知識を活用できる。
探索アルゴリズムは、本来の分類対象からユーザ指定距離が最小限のターゲットクラスからテキストを見つけようとする。
関連論文リスト
- Attacking Misinformation Detection Using Adversarial Examples Generated by Language Models [0.0]
テキスト分類アルゴリズムのロバスト性をテストするために,逆例を生成するという課題について検討する。
我々は、攻撃者が試すことができるクエリ数に現実的な制限を設定することで、コンテンツモデレーションのシミュレーションに焦点を当てる。
論文 参考訳(メタデータ) (2024-10-28T11:46:30Z) - SciPrompt: Knowledge-augmented Prompting for Fine-grained Categorization of Scientific Topics [2.3742710594744105]
SciPromptは,低リソーステキスト分類タスクに対して,科学的トピック関連用語を自動的に検索するフレームワークである。
本手法は, ほとんど, ゼロショット設定下での科学的テキスト分類作業において, 最先端, 即時的な微調整法より優れる。
論文 参考訳(メタデータ) (2024-10-02T18:45:04Z) - Unified Language-driven Zero-shot Domain Adaptation [55.64088594551629]
Unified Language-driven Zero-shot Domain Adaptation (ULDA)は、新しいタスクセットである。
これにより、ドメインIDの知識を明示することなく、単一のモデルを多様なターゲットドメインに適応させることができる。
論文 参考訳(メタデータ) (2024-04-10T16:44:11Z) - Generative Multi-modal Models are Good Class-Incremental Learners [51.5648732517187]
クラス増分学習のための新しい生成型マルチモーダルモデル(GMM)フレームワークを提案する。
提案手法は適応生成モデルを用いて画像のラベルを直接生成する。
Few-shot CIL設定では、現在の最先端のすべてのメソッドに対して少なくとも14%精度が向上し、忘れてはならない。
論文 参考訳(メタデータ) (2024-03-27T09:21:07Z) - Language Models for Text Classification: Is In-Context Learning Enough? [54.869097980761595]
最近の基礎言語モデルでは、ゼロショットや少数ショットの設定で多くのNLPタスクで最先端のパフォーマンスが示されている。
より標準的なアプローチよりもこれらのモデルの利点は、自然言語(prompts)で書かれた命令を理解する能力である。
これにより、アノテーション付きインスタンスが限られているドメインのテキスト分類問題に対処するのに適している。
論文 参考訳(メタデータ) (2024-03-26T12:47:39Z) - TextFormer: A Query-based End-to-End Text Spotter with Mixed Supervision [61.186488081379]
Transformerアーキテクチャを用いた問合せベースのエンドツーエンドテキストスポッターであるTextFormerを提案する。
TextFormerは、画像エンコーダとテキストデコーダの上に構築され、マルチタスクモデリングのための共同セマンティック理解を学ぶ。
分類、セグメンテーション、認識のブランチの相互訓練と最適化を可能にし、より深い特徴共有をもたらす。
論文 参考訳(メタデータ) (2023-06-06T03:37:41Z) - Label Agnostic Pre-training for Zero-shot Text Classification [4.9081735096855565]
現実世界の応用では、与えられたテキストを記述するための無限ラベル空間が存在する。
我々は2つの新しいシンプルで効果的な事前学習戦略、ImplicitとExplicitの事前学習を導入する。
これらのメソッドは、タスクレベルの理解を構築するためにモデルを条件付けすることを目的として、列車時のモデルにアスペクトレベルの理解を注入します。
論文 参考訳(メタデータ) (2023-05-25T22:55:32Z) - A Question Answering Framework for Decontextualizing User-facing
Snippets from Scientific Documents [47.39561727838956]
言語モデルを使って、科学文書からスニペットを書き直して、自分で読むことができます。
本稿では,タスクを質問生成,質問応答,書き直しの3段階に分割するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-24T06:23:02Z) - CLIP the Gap: A Single Domain Generalization Approach for Object
Detection [60.20931827772482]
単一ドメインの一般化(Single Domain Generalization)は、単一のソースドメイン上でモデルをトレーニングすることで、目に見えないターゲットドメインに一般化する問題に取り組む。
本稿では、事前学習された視覚言語モデルを用いて、テキストプロンプトを介して意味領域の概念を導入することを提案する。
本手法は,検出器のバックボーンから抽出した特徴に作用する意味的拡張戦略と,テキストに基づく分類損失によって実現される。
論文 参考訳(メタデータ) (2023-01-13T12:01:18Z) - Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods
in Natural Language Processing [78.8500633981247]
本稿では,自然言語処理における新たなパラダイムにおける研究成果の探索と整理を行う。
入力xを取り込んで出力yをP(y|x)として予測するようにモデルを訓練する従来の教師付き学習とは異なり、プロンプトベースの学習は直接テキストの確率をモデル化する言語モデルに基づいている。
論文 参考訳(メタデータ) (2021-07-28T18:09:46Z) - Automatic Discovery of Novel Intents & Domains from Text Utterances [18.39942131996558]
本稿では,ラベルのない大量のデータから新しいドメインや意図を自動的に発見する新しいフレームワークADVINを提案する。
ADVINは3つのベンチマークデータセットのベースラインと、商用音声処理エージェントからの実際のユーザ発話を大きく上回る。
論文 参考訳(メタデータ) (2020-05-22T00:47:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。