論文の概要: CREST: A Joint Framework for Rationalization and Counterfactual Text
Generation
- arxiv url: http://arxiv.org/abs/2305.17075v1
- Date: Fri, 26 May 2023 16:34:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 13:26:31.960761
- Title: CREST: A Joint Framework for Rationalization and Counterfactual Text
Generation
- Title(参考訳): CREST: 合理化と対実テキスト生成のための統合フレームワーク
- Authors: Marcos Treviso, Alexis Ross, Nuno M. Guerreiro, Andr\'e F. T. Martins
- Abstract要約: 我々は選択的合理化と対実テキスト生成のためのフレームワークであるCREST(ContRastive Edits with Sparse raTionalization)を紹介する。
CRESTは、従来の方法よりも自然な有効な偽物を生成する。
CRESTのカウンターファクトを利用して選択的論理を規則化する新たな損失関数は、モデルの堅牢性と合理性の両方を改善します。
- 参考スコア(独自算出の注目度): 5.606679908174783
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Selective rationales and counterfactual examples have emerged as two
effective, complementary classes of interpretability methods for analyzing and
training NLP models. However, prior work has not explored how these methods can
be integrated to combine their complementary advantages. We overcome this
limitation by introducing CREST (ContRastive Edits with Sparse
raTionalization), a joint framework for selective rationalization and
counterfactual text generation, and show that this framework leads to
improvements in counterfactual quality, model robustness, and interpretability.
First, CREST generates valid counterfactuals that are more natural than those
produced by previous methods, and subsequently can be used for data
augmentation at scale, reducing the need for human-generated examples. Second,
we introduce a new loss function that leverages CREST counterfactuals to
regularize selective rationales and show that this regularization improves both
model robustness and rationale quality, compared to methods that do not
leverage CREST counterfactuals. Our results demonstrate that CREST successfully
bridges the gap between selective rationales and counterfactual examples,
addressing the limitations of existing methods and providing a more
comprehensive view of a model's predictions.
- Abstract(参考訳): 選択的理性と反実例は、NLPモデルを解析し、訓練するための2つの効果的な補完的解釈可能性のクラスとして現れている。
しかし,従来の研究では,これらの手法を相補的な利点と組み合わせる方法については検討されていない。
CREST(ContRastive Edits with Sparse raTionalization)は、選択的合理化と対実テキスト生成のための統合フレームワークであり、このフレームワークが対実品質、モデル堅牢性、解釈可能性の改善につながることを示す。
まず、CRESTは、従来の方法よりも自然な有効な偽物を生成し、その後、大規模にデータ拡張に使用でき、人為的な例の必要性を減らすことができる。
第2に,クレストカウンターファクチュアを利用した新たな損失関数を導入し,この正規化によりモデルロバスト性と合理的品質の両方が向上することを示す。
その結果,選択的合理性と反事実的例とのギャップを埋めることに成功し,既存手法の限界に対処し,モデルの予測をより包括的にとらえることができた。
関連論文リスト
- Enhancing Performance of Explainable AI Models with Constrained Concept Refinement [10.241134756773228]
正確性と解釈可能性のトレードオフは、機械学習(ML)における長年の課題である。
本稿では,概念表現における偏差の影響について検討し,これらの効果を緩和するための新しい枠組みを提案する。
従来の説明可能な手法と比較して,提案手法は様々な大規模ベンチマークにおいてモデル解釈可能性を維持しながら予測精度を向上するだけでなく,計算コストを大幅に削減する。
論文 参考訳(メタデータ) (2025-02-10T18:53:15Z) - BRiTE: Bootstrapping Reinforced Thinking Process to Enhance Language Model Reasoning [78.63421517563056]
大規模言語モデル(LLM)は複雑な推論タスクにおいて顕著な機能を示した。
本稿では,新しいグラフィカルモデルを用いてLLM推論を定式化する統一確率的フレームワークを提案する。
本稿では,Bootstrapping Reinforced Thinking Process (BRiTE)アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2025-01-31T02:39:07Z) - A Survey of Low-shot Vision-Language Model Adaptation via Representer Theorem [38.84662767814454]
限られた訓練データの条件下で対処する主な課題は、パラメータ効率のよい方法で事前訓練された視覚言語モデルを微調整する方法である。
本稿では,既存の手法を統合化し,それらの性質を同定し,詳細な比較を支援するための統一的な計算フレームワークを提案する。
実演として、カーネルヒルベルト空間(RKHS)における表現子間のクラス間相関をモデル化し、既存の手法を拡張した。
論文 参考訳(メタデータ) (2024-10-15T15:22:30Z) - Advancing Semantic Textual Similarity Modeling: A Regression Framework with Translated ReLU and Smooth K2 Loss [3.435381469869212]
本稿では,Sentence-BERT STSタスクのための革新的な回帰フレームワークを提案する。
これは2つの単純で効果的な損失関数、Translated ReLUとSmooth K2 Lossを提案する。
実験結果から,本手法は7つのSTSベンチマークにおいて有意な性能を達成できることが示された。
論文 参考訳(メタデータ) (2024-06-08T02:52:43Z) - Make Your Decision Convincing! A Unified Two-Stage Framework:
Self-Attribution and Decision-Making [24.906886146275127]
自己貢献・意思決定(SADM)として知られる統合された2段階の枠組みを提案する。
我々のフレームワークは、生成した合理性とモデル決定とのより信頼性の高いリンクを確立するだけでなく、タスク性能と合理性の品質の競争結果も達成している。
論文 参考訳(メタデータ) (2023-10-20T15:59:57Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Less is More: Mitigate Spurious Correlations for Open-Domain Dialogue
Response Generation Models by Causal Discovery [52.95935278819512]
本研究で得られたCGDIALOGコーパスに基づくオープンドメイン応答生成モデルのスプリアス相関に関する最初の研究を行った。
因果探索アルゴリズムに着想を得て,反応生成モデルの学習と推論のための新しいモデル非依存手法を提案する。
論文 参考訳(メタデータ) (2023-03-02T06:33:48Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - Towards Robust and Reliable Algorithmic Recourse [11.887537452826624]
モデルシフトに堅牢なリコースを見つけるための敵対的トレーニングを活用する新しいフレームワークであるRObust Algorithmic Recourse(ROAR)を提案します。
また,モデルシフトにロバストなリコースの構築の重要性を強調する詳細な理論解析を行う。
論文 参考訳(メタデータ) (2021-02-26T17:38:52Z) - Control as Hybrid Inference [62.997667081978825]
本稿では、反復推論と償却推論のバランスを自然に仲介するCHIの実装について述べる。
連続的な制御ベンチマークでアルゴリズムのスケーラビリティを検証し、強力なモデルフリーおよびモデルベースラインを上回る性能を示す。
論文 参考訳(メタデータ) (2020-07-11T19:44:09Z) - Decomposed Adversarial Learned Inference [118.27187231452852]
我々は,DALI(Decomposed Adversarial Learned Inference)という新しいアプローチを提案する。
DALIは、データ空間とコード空間の両方の事前および条件分布を明示的に一致させる。
MNIST, CIFAR-10, CelebAデータセットにおけるDALIの有効性を検証する。
論文 参考訳(メタデータ) (2020-04-21T20:00:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。