論文の概要: CREST: A Joint Framework for Rationalization and Counterfactual Text
Generation
- arxiv url: http://arxiv.org/abs/2305.17075v1
- Date: Fri, 26 May 2023 16:34:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 13:26:31.960761
- Title: CREST: A Joint Framework for Rationalization and Counterfactual Text
Generation
- Title(参考訳): CREST: 合理化と対実テキスト生成のための統合フレームワーク
- Authors: Marcos Treviso, Alexis Ross, Nuno M. Guerreiro, Andr\'e F. T. Martins
- Abstract要約: 我々は選択的合理化と対実テキスト生成のためのフレームワークであるCREST(ContRastive Edits with Sparse raTionalization)を紹介する。
CRESTは、従来の方法よりも自然な有効な偽物を生成する。
CRESTのカウンターファクトを利用して選択的論理を規則化する新たな損失関数は、モデルの堅牢性と合理性の両方を改善します。
- 参考スコア(独自算出の注目度): 5.606679908174783
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Selective rationales and counterfactual examples have emerged as two
effective, complementary classes of interpretability methods for analyzing and
training NLP models. However, prior work has not explored how these methods can
be integrated to combine their complementary advantages. We overcome this
limitation by introducing CREST (ContRastive Edits with Sparse
raTionalization), a joint framework for selective rationalization and
counterfactual text generation, and show that this framework leads to
improvements in counterfactual quality, model robustness, and interpretability.
First, CREST generates valid counterfactuals that are more natural than those
produced by previous methods, and subsequently can be used for data
augmentation at scale, reducing the need for human-generated examples. Second,
we introduce a new loss function that leverages CREST counterfactuals to
regularize selective rationales and show that this regularization improves both
model robustness and rationale quality, compared to methods that do not
leverage CREST counterfactuals. Our results demonstrate that CREST successfully
bridges the gap between selective rationales and counterfactual examples,
addressing the limitations of existing methods and providing a more
comprehensive view of a model's predictions.
- Abstract(参考訳): 選択的理性と反実例は、NLPモデルを解析し、訓練するための2つの効果的な補完的解釈可能性のクラスとして現れている。
しかし,従来の研究では,これらの手法を相補的な利点と組み合わせる方法については検討されていない。
CREST(ContRastive Edits with Sparse raTionalization)は、選択的合理化と対実テキスト生成のための統合フレームワークであり、このフレームワークが対実品質、モデル堅牢性、解釈可能性の改善につながることを示す。
まず、CRESTは、従来の方法よりも自然な有効な偽物を生成し、その後、大規模にデータ拡張に使用でき、人為的な例の必要性を減らすことができる。
第2に,クレストカウンターファクチュアを利用した新たな損失関数を導入し,この正規化によりモデルロバスト性と合理的品質の両方が向上することを示す。
その結果,選択的合理性と反事実的例とのギャップを埋めることに成功し,既存手法の限界に対処し,モデルの予測をより包括的にとらえることができた。
関連論文リスト
- A Survey of Low-shot Vision-Language Model Adaptation via Representer Theorem [38.84662767814454]
限られた訓練データの条件下で対処する主な課題は、パラメータ効率のよい方法で事前訓練された視覚言語モデルを微調整する方法である。
本稿では,既存の手法を統合化し,それらの性質を同定し,詳細な比較を支援するための統一的な計算フレームワークを提案する。
実演として、カーネルヒルベルト空間(RKHS)における表現子間のクラス間相関をモデル化し、既存の手法を拡張した。
論文 参考訳(メタデータ) (2024-10-15T15:22:30Z) - Advancing Semantic Textual Similarity Modeling: A Regression Framework with Translated ReLU and Smooth K2 Loss [3.435381469869212]
本稿では,Sentence-BERT STSタスクのための革新的な回帰フレームワークを提案する。
これは2つの単純で効果的な損失関数、Translated ReLUとSmooth K2 Lossを提案する。
実験結果から,本手法は7つのSTSベンチマークにおいて有意な性能を達成できることが示された。
論文 参考訳(メタデータ) (2024-06-08T02:52:43Z) - Make Your Decision Convincing! A Unified Two-Stage Framework:
Self-Attribution and Decision-Making [24.906886146275127]
自己貢献・意思決定(SADM)として知られる統合された2段階の枠組みを提案する。
我々のフレームワークは、生成した合理性とモデル決定とのより信頼性の高いリンクを確立するだけでなく、タスク性能と合理性の品質の競争結果も達成している。
論文 参考訳(メタデータ) (2023-10-20T15:59:57Z) - REX: Rapid Exploration and eXploitation for AI Agents [103.68453326880456]
本稿では、REXと呼ばれるAIエージェントのための高速探索およびeXploitationのための改良されたアプローチを提案する。
REXは追加の報酬層を導入し、アッパー信頼境界(UCB)スコアに似た概念を統合し、より堅牢で効率的なAIエージェントのパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-07-18T04:26:33Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Less is More: Mitigate Spurious Correlations for Open-Domain Dialogue
Response Generation Models by Causal Discovery [52.95935278819512]
本研究で得られたCGDIALOGコーパスに基づくオープンドメイン応答生成モデルのスプリアス相関に関する最初の研究を行った。
因果探索アルゴリズムに着想を得て,反応生成モデルの学習と推論のための新しいモデル非依存手法を提案する。
論文 参考訳(メタデータ) (2023-03-02T06:33:48Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - Towards Robust and Reliable Algorithmic Recourse [11.887537452826624]
モデルシフトに堅牢なリコースを見つけるための敵対的トレーニングを活用する新しいフレームワークであるRObust Algorithmic Recourse(ROAR)を提案します。
また,モデルシフトにロバストなリコースの構築の重要性を強調する詳細な理論解析を行う。
論文 参考訳(メタデータ) (2021-02-26T17:38:52Z) - Control as Hybrid Inference [62.997667081978825]
本稿では、反復推論と償却推論のバランスを自然に仲介するCHIの実装について述べる。
連続的な制御ベンチマークでアルゴリズムのスケーラビリティを検証し、強力なモデルフリーおよびモデルベースラインを上回る性能を示す。
論文 参考訳(メタデータ) (2020-07-11T19:44:09Z) - Decomposed Adversarial Learned Inference [118.27187231452852]
我々は,DALI(Decomposed Adversarial Learned Inference)という新しいアプローチを提案する。
DALIは、データ空間とコード空間の両方の事前および条件分布を明示的に一致させる。
MNIST, CIFAR-10, CelebAデータセットにおけるDALIの有効性を検証する。
論文 参考訳(メタデータ) (2020-04-21T20:00:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。