論文の概要: A General Search-based Framework for Generating Textual Counterfactual
Explanations
- arxiv url: http://arxiv.org/abs/2211.00369v2
- Date: Sat, 16 Dec 2023 09:38:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 21:31:58.421881
- Title: A General Search-based Framework for Generating Textual Counterfactual
Explanations
- Title(参考訳): テキスト対実説明生成のための一般検索型フレームワーク
- Authors: Daniel Gilo and Shaul Markovitch
- Abstract要約: 本稿では,テキスト領域における反実的説明を生成するための検索ベースのフレームワークを提案する。
当社のフレームワークは、モデルに依存しない、ドメインに依存しない、いつでもです。
- 参考スコア(独自算出の注目度): 2.5563396001349297
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the prominent methods for explaining the decision of a
machine-learning classifier is by a counterfactual example. Most current
algorithms for generating such examples in the textual domain are based on
generative language models. Generative models, however, are trained to minimize
a specific loss function in order to fulfill certain requirements for the
generated texts. Any change in the requirements may necessitate costly
retraining, thus potentially limiting their applicability. In this paper, we
present a general search-based framework for generating counterfactual
explanations in the textual domain. Our framework is model-agnostic,
domain-agnostic, anytime, and does not require retraining in order to adapt to
changes in the user requirements. We model the task as a search problem in a
space where the initial state is the classified text, and the goal state is a
text in a given target class. Our framework includes domain-independent
modification operators, but can also exploit domain-specific knowledge through
specialized operators. The search algorithm attempts to find a text from the
target class with minimal user-specified distance from the original classified
object.
- Abstract(参考訳): 機械学習分類器の決定を説明する重要な方法の1つは、逆実例である。
テキスト領域でそのような例を生成するアルゴリズムのほとんどは、生成言語モデルに基づいている。
しかし生成モデルは、生成されたテキストに対する特定の要求を満たすために、特定の損失関数を最小化するように訓練される。
要件の変更は、コストのかかる再トレーニングを必要とする可能性があるため、適用性を制限する可能性がある。
本稿では,テキスト領域における対実的説明を生成する汎用的な検索ベースフレームワークを提案する。
私たちのフレームワークはモデル非依存で、ドメイン非依存で、いつでも、ユーザ要件の変更に対応するために再トレーニングを必要としません。
我々は,初期状態が分類されたテキストである空間における探索問題としてタスクをモデル化し,目標状態が与えられたターゲットクラスのテキストである。
我々のフレームワークはドメインに依存しない修正演算子を含むが、専門演算子を通してドメイン固有の知識を活用できる。
探索アルゴリズムは、本来の分類対象からユーザ指定距離が最小限のターゲットクラスからテキストを見つけようとする。
関連論文リスト
- TextFormer: A Query-based End-to-End Text Spotter with Mixed Supervision [72.79006668848186]
Transformerアーキテクチャを用いた問合せベースのエンドツーエンドテキストスポッターであるTextFormerを提案する。
TextFormerは、画像エンコーダとテキストデコーダの上に構築され、マルチタスクモデリングのための共同セマンティック理解を学ぶ。
分類、セグメンテーション、認識のブランチの相互訓練と最適化を可能にし、より深い特徴共有をもたらす。
論文 参考訳(メタデータ) (2023-06-06T03:37:41Z) - Label Agnostic Pre-training for Zero-shot Text Classification [4.9081735096855565]
現実世界の応用では、与えられたテキストを記述するための無限ラベル空間が存在する。
我々は2つの新しいシンプルで効果的な事前学習戦略、ImplicitとExplicitの事前学習を導入する。
これらのメソッドは、タスクレベルの理解を構築するためにモデルを条件付けすることを目的として、列車時のモデルにアスペクトレベルの理解を注入します。
論文 参考訳(メタデータ) (2023-05-25T22:55:32Z) - A Question Answering Framework for Decontextualizing User-facing
Snippets from Scientific Documents [47.39561727838956]
言語モデルを使って、科学文書からスニペットを書き直して、自分で読むことができます。
本稿では,タスクを質問生成,質問応答,書き直しの3段階に分割するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-24T06:23:02Z) - nl2spec: Interactively Translating Unstructured Natural Language to
Temporal Logics with Large Language Models [3.1143846686797314]
大規模言語モデル(LLM)を適用するためのフレームワークであるnl2specは、構造化されていない自然言語から正式な仕様を導出する。
本稿では,自然言語におけるシステム要求のあいまいさを検知し,解決する新たな手法を提案する。
ユーザは、これらのサブ翻訳を反復的に追加、削除、編集して、不正なフォーマル化を修正する。
論文 参考訳(メタデータ) (2023-03-08T20:08:53Z) - CLIP the Gap: A Single Domain Generalization Approach for Object
Detection [60.20931827772482]
単一ドメインの一般化(Single Domain Generalization)は、単一のソースドメイン上でモデルをトレーニングすることで、目に見えないターゲットドメインに一般化する問題に取り組む。
本稿では、事前学習された視覚言語モデルを用いて、テキストプロンプトを介して意味領域の概念を導入することを提案する。
本手法は,検出器のバックボーンから抽出した特徴に作用する意味的拡張戦略と,テキストに基づく分類損失によって実現される。
論文 参考訳(メタデータ) (2023-01-13T12:01:18Z) - Classifiers are Better Experts for Controllable Text Generation [63.17266060165098]
提案手法は, PPLにおける最近のPPLM, GeDi, DExpertsよりも有意に優れており, 生成したテキストの外部分類器に基づく感情の精度が高いことを示す。
同時に、実装やチューニングも簡単で、制限や要件も大幅に少なくなります。
論文 参考訳(メタデータ) (2022-05-15T12:58:35Z) - FindIt: Generalized Localization with Natural Language Queries [43.07139534653485]
FindItは、さまざまな視覚的グラウンドとローカライゼーションタスクを統合する、シンプルで汎用的なフレームワークである。
我々のアーキテクチャの鍵は、異なるローカライゼーション要求を統一する効率的なマルチスケール融合モジュールである。
エンドツーエンドのトレーニング可能なフレームワークは、幅広い参照表現、ローカライゼーション、検出クエリに柔軟かつ正確に対応します。
論文 参考訳(メタデータ) (2022-03-31T17:59:30Z) - Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods
in Natural Language Processing [78.8500633981247]
本稿では,自然言語処理における新たなパラダイムにおける研究成果の探索と整理を行う。
入力xを取り込んで出力yをP(y|x)として予測するようにモデルを訓練する従来の教師付き学習とは異なり、プロンプトベースの学習は直接テキストの確率をモデル化する言語モデルに基づいている。
論文 参考訳(メタデータ) (2021-07-28T18:09:46Z) - Unsupervised Text Generation by Learning from Search [86.51619839836331]
TGLSは、教師なしテキスト生成のための新しいフレームワークである。
実世界の自然言語生成タスクであるパラフレーズ生成とテキストの形式化におけるTGLSの有効性を示す。
論文 参考訳(メタデータ) (2020-07-09T04:34:48Z) - Automatic Discovery of Novel Intents & Domains from Text Utterances [18.39942131996558]
本稿では,ラベルのない大量のデータから新しいドメインや意図を自動的に発見する新しいフレームワークADVINを提案する。
ADVINは3つのベンチマークデータセットのベースラインと、商用音声処理エージェントからの実際のユーザ発話を大きく上回る。
論文 参考訳(メタデータ) (2020-05-22T00:47:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。