論文の概要: How About Kind of Generating Hedges using End-to-End Neural Models?
- arxiv url: http://arxiv.org/abs/2306.14696v1
- Date: Mon, 26 Jun 2023 13:43:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 13:29:55.622455
- Title: How About Kind of Generating Hedges using End-to-End Neural Models?
- Title(参考訳): エンド・ツー・エンドニューラルモデルを用いたヘッジ生成の種類について
- Authors: Alafate Abulimiti, Chlo\'e Clavel, Justine Cassell
- Abstract要約: ヘッジ(hedging)とは、会話における文の影響を和らげるための戦略である。
我々は,人間の学習データに基づいて訓練された,最先端の言語モデルに基づくヘッジ生成モデルを開発する。
- 参考スコア(独自算出の注目度): 1.0466434989449724
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hedging is a strategy for softening the impact of a statement in
conversation. In reducing the strength of an expression, it may help to avoid
embarrassment (more technically, ``face threat'') to one's listener. For this
reason, it is often found in contexts of instruction, such as tutoring. In this
work, we develop a model of hedge generation based on i) fine-tuning
state-of-the-art language models trained on human-human tutoring data, followed
by ii) reranking to select the candidate that best matches the expected hedging
strategy within a candidate pool using a hedge classifier. We apply this method
to a natural peer-tutoring corpus containing a significant number of
disfluencies, repetitions, and repairs. The results show that generation in
this noisy environment is feasible with reranking. By conducting an error
analysis for both approaches, we reveal the challenges faced by systems
attempting to accomplish both social and task-oriented goals in conversation.
- Abstract(参考訳): ヘッジは会話における文の影響を和らげるための戦略である。
表現の強度を下げるには、聞き手に対する恥ずかしさ(技術的には ``face threat'' )を避けるのに役立つかもしれない。
このため、家庭教師などの教科の文脈でよく見られる。
そこで本研究では, ヘッジ生成モデルを構築した。
一 人間の教養データに基づいて訓練された最先端言語モデル
二 ヘッジ分類器を用いて、候補プール内で予想されるヘッジ戦略に最も適合する候補を選択すること。
本手法は,膨大な数の流用,反復,修復を含む自然なピアツーリングコーパスに適用する。
その結果, この騒音環境における生成は, 再ランキングによって実現可能であることがわかった。
両手法の誤り解析を行うことにより,会話における社会的目標とタスク指向目標の両方を達成しようとするシステムが直面する課題を明らかにする。
関連論文リスト
- What could go wrong? Discovering and describing failure modes in computer vision [27.6114923305978]
言語に基づく誤り説明可能性(LBEE)の問題を定式化する。
我々は,共同視覚・言語埋め込み空間で機能するソリューションを提案する。
提案手法は,特定の誤りの原因に関連する非自明な文を分離する。
論文 参考訳(メタデータ) (2024-08-08T14:01:12Z) - Forging the Forger: An Attempt to Improve Authorship Verification via Data Augmentation [52.72682366640554]
著者検証(英語: Authorship Verification, AV)とは、ある特定の著者によって書かれたか、別の人物によって書かれたのかを推測するテキスト分類タスクである。
多くのAVシステムは敵の攻撃に弱いことが示されており、悪意のある著者は、その書体スタイルを隠蔽するか、あるいは他の著者の書体を模倣することによって、積極的に分類者を騙そうとしている。
論文 参考訳(メタデータ) (2024-03-17T16:36:26Z) - Quark: Controllable Text Generation with Reinforced Unlearning [68.07749519374089]
大規模言語モデルは、しばしばユーザの期待に合わない振る舞いを学ぶ。
本稿では,(不必要な)特性を定量化する報酬関数を最適化するアルゴリズムQuarkを紹介する。
未学習の毒性、ネガティブな感情、反復について、我々の実験はQuarkが強いベースラインと最先端の強化学習法の両方より優れていることを示している。
論文 参考訳(メタデータ) (2022-05-26T21:11:51Z) - A Generative Language Model for Few-shot Aspect-Based Sentiment Analysis [90.24921443175514]
我々は、アスペクト項、カテゴリを抽出し、対応する極性を予測するアスペクトベースの感情分析に焦点を当てる。
本稿では,一方向の注意を伴う生成言語モデルを用いて,抽出タスクと予測タスクをシーケンス生成タスクに再構成することを提案する。
提案手法は,従来の最先端(BERTをベースとした)の性能を,数ショットとフルショットの設定において,大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-04-11T18:31:53Z) - Typical Decoding for Natural Language Generation [76.69397802617064]
本稿は,高確率テキストが退屈あるいは反復的である理由について考察する。
典型的なサンプリングでは,品質面での競争性能が期待できる。
論文 参考訳(メタデータ) (2022-02-01T18:58:45Z) - Adversarial GLUE: A Multi-Task Benchmark for Robustness Evaluation of
Language Models [86.02610674750345]
AdvGLUE(Adversarial GLUE)は、様々な種類の敵攻撃の下で、現代の大規模言語モデルの脆弱性を調査し評価するための新しいマルチタスクベンチマークである。
GLUEタスクに14の逆攻撃手法を適用してAdvGLUEを構築する。
テストしたすべての言語モデルとロバストなトレーニングメソッドは、AdvGLUEではパフォーマンスが悪く、スコアは明確な精度よりもはるかに遅れています。
論文 参考訳(メタデータ) (2021-11-04T12:59:55Z) - A Differentiable Language Model Adversarial Attack on Text Classifiers [10.658675415759697]
自然言語処理のための新しいブラックボックス文レベルアタックを提案する。
本手法は,事前学習した言語モデルを微調整して,逆例を生成する。
提案手法は, 計算量と人的評価の両方において, 多様なNLP問題において, 競合相手よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-07-23T14:43:13Z) - $k$-Neighbor Based Curriculum Sampling for Sequence Prediction [22.631763991832862]
言語モデルにおける多段階予測は、トレーニングとテスト時間プロセスの相違により困難である。
教師方針を段階的に変更するカリキュラム学習に基づく手法であるtextitNearest-Neighbor Replacement Samplingを提案する。
本研究では, 2つの言語モデリングベンチマークについて報告し, スケジュールされたサンプリングと併用することで, 性能をさらに向上させる方法を提案する。
論文 参考訳(メタデータ) (2021-01-22T20:07:29Z) - Learning to Generate Noise for Multi-Attack Robustness [126.23656251512762]
対人学習は、対人摂動に対する既存の方法の感受性を回避できる手法の1つとして登場した。
安全クリティカルなアプリケーションでは、攻撃者は様々な敵を採用してシステムを騙すことができるため、これらの手法は極端に便利である。
本稿では,複数種類の攻撃に対するモデルの堅牢性を改善するために,ノイズ発生を明示的に学習するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T10:44:05Z) - Differentiable Language Model Adversarial Attacks on Categorical
Sequence Classifiers [0.0]
敵対的攻撃パラダイムは、ディープラーニングモデルの脆弱性の様々なシナリオを探索する。
本研究では,言語モデルの微調整を,敵対的攻撃のジェネレータとして利用する。
我々のモデルは、銀行取引、電子健康記録、NLPデータセットに関する多様なデータセットに対して機能する。
論文 参考訳(メタデータ) (2020-06-19T11:25:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。