論文の概要: Weakly-Supervised Hierarchical Models for Predicting Persuasive
Strategies in Good-faith Textual Requests
- arxiv url: http://arxiv.org/abs/2101.06351v1
- Date: Sat, 16 Jan 2021 02:31:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-28 10:14:06.719422
- Title: Weakly-Supervised Hierarchical Models for Predicting Persuasive
Strategies in Good-faith Textual Requests
- Title(参考訳): 弱教師付き階層モデルによる良文要求における説得戦略の予測
- Authors: Jiaao Chen, Diyi Yang
- Abstract要約: 誠実なテキスト要求における説得力のある戦略をモデル化する大規模なマルチドメインテキストコーパスを紹介します。
階層的弱教師付き潜在変数モデルの設計を行い,各文に対して部分的ラベル付きデータを用いて説得戦略を予測する。
実験の結果,提案手法は既存の半監視ベースラインを大幅に上回った。
- 参考スコア(独自算出の注目度): 22.58861442978803
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modeling persuasive language has the potential to better facilitate our
decision-making processes. Despite its importance, computational modeling of
persuasion is still in its infancy, largely due to the lack of benchmark
datasets that can provide quantitative labels of persuasive strategies to
expedite this line of research. To this end, we introduce a large-scale
multi-domain text corpus for modeling persuasive strategies in good-faith text
requests. Moreover, we design a hierarchical weakly-supervised latent variable
model that can leverage partially labeled data to predict such associated
persuasive strategies for each sentence, where the supervision comes from both
the overall document-level labels and very limited sentence-level labels.
Experimental results showed that our proposed method outperformed existing
semi-supervised baselines significantly. We have publicly released our code at
https://github.com/GT-SALT/Persuasion_Strategy_WVAE.
- Abstract(参考訳): 説得力のある言語モデリングは、意思決定プロセスをより容易にする可能性がある。
その重要性にもかかわらず、説得の計算モデルはまだ初期段階にあり、この一連の研究を早める説得戦略の定量的ラベルを提供するベンチマークデータセットが欠如している。
そこで本研究では,良質なテキスト要求における説得戦略をモデル化するための大規模マルチドメインテキストコーパスを提案する。
さらに,文書レベルラベルと非常に限定的な文レベルラベルの両方から,部分ラベル付きデータを利用して各文に対する関連する説得戦略を予測できる階層型弱教師付き潜在変数モデルを設計する。
実験の結果,提案手法は既存の半教師付きベースラインを大きく上回った。
私たちはコードをhttps://github.com/gt-salt/persuasion_strategy_wvaeで公開しました。
関連論文リスト
- Breaking the Manual Annotation Bottleneck: Creating a Comprehensive Legal Case Criticality Dataset through Semi-Automated Labeling [16.529070321280447]
本稿では,スイス最高裁判所の判決が将来の法制化に与える影響を評価するための新たな資源である臨界度予測データセットを紹介する。
リソース集約的な手動アノテーションに依存する既存のアプローチとは異なり、私たちはラベルを半自動で導き、はるかに大きなデータセットを生み出します。
我々は、微調整された変種や大規模言語モデルを含む複数の多言語モデルを評価し、微調整されたモデルがゼロショットベースラインを一貫して上回っていることを発見した。
論文 参考訳(メタデータ) (2024-10-17T11:43:16Z) - Zero-to-Strong Generalization: Eliciting Strong Capabilities of Large Language Models Iteratively without Gold Labels [75.77877889764073]
大規模言語モデル(LLM)は,ゴールドラベルを用いた教師付き微調整やテキスト内学習を通じて,顕著な性能を示した。
本研究では,ラベルのないデータのみを利用することで,強力なモデル機能を実現することができるかどうかを考察する。
ゼロ・ツー・ストロング一般化と呼ばれる新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2024-09-19T02:59:44Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - SimOAP: Improve Coherence and Consistency in Persona-based Dialogue
Generation via Over-sampling and Post-evaluation [54.66399120084227]
大規模コーパスで訓練された言語モデルは、オープンドメイン対話において驚くほど流動的な結果を生み出すことができる。
ペルソナに基づく対話生成タスクでは、一貫性と一貫性が言語モデルにとって大きな課題である。
オーバーサンプリングとポスト評価という2段階のSimOAP戦略が提案されている。
論文 参考訳(メタデータ) (2023-05-18T17:23:00Z) - POUF: Prompt-oriented unsupervised fine-tuning for large pre-trained
models [62.23255433487586]
モデルに微調整を施したり、ラベルのないターゲットデータにプロンプトを施したりするための教師なしの微調整フレームワークを提案する。
本稿では,プロンプトとターゲットデータから抽出した離散分布を整列させて,言語拡張視覚とマスキング言語モデルの両方に適用する方法を示す。
論文 参考訳(メタデータ) (2023-04-29T22:05:22Z) - Multidimensional Perceptron for Efficient and Explainable Long Text
Classification [31.31206469613901]
本稿では,フレームワーク内の注目/RNNを置き換えるために,単純だが効果的なSegment-aWare多次元PErceptron(SWIPE)を提案する。
SWIPEは、テキスト全体のラベルを教師付きトレーニングで効果的に学習し、セグメントのラベルを認識し、長文ラベリングへの貢献を見積もる。
論文 参考訳(メタデータ) (2023-04-04T08:49:39Z) - Long Document Summarization with Top-down and Bottom-up Inference [113.29319668246407]
本稿では、2つの側面の要約モデルを改善するための原則的推論フレームワークを提案する。
我々のフレームワークは、トップレベルが長距離依存性をキャプチャするドキュメントの階層的な潜在構造を前提としています。
本稿では,様々な要約データセットに対して提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-03-15T01:24:51Z) - Controllable Abstractive Dialogue Summarization with Sketch Supervision [56.59357883827276]
本モデルは,最大50.79のROUGE-Lスコアを持つ最大対話要約コーパスSAMSumの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-28T19:05:36Z) - GPT3Mix: Leveraging Large-scale Language Models for Text Augmentation [9.501648136713694]
GPT-3のような大規模言語モデルは優れた数ショット学習者であり、自然なテキストプロンプトで制御できる。
本稿では,大規模言語モデルを用いて現実的なテキストサンプルを生成する新しいデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2021-04-18T11:39:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。