論文の概要: Crowdsourcing Diverse Paraphrases for Training Task-oriented Bots
- arxiv url: http://arxiv.org/abs/2109.09420v1
- Date: Mon, 20 Sep 2021 10:46:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-21 16:35:57.833227
- Title: Crowdsourcing Diverse Paraphrases for Training Task-oriented Bots
- Title(参考訳): タスク指向ボットのトレーニングのためのクラウドソーシング
- Authors: Jorge Ram\'irez, Auday Berro, Marcos Baez, Boualem Benatallah, Fabio
Casati
- Abstract要約: クラウドベースのパラフレーズは、タスク指向のボットをトレーニングするためのデータセットを構築するための顕著なアプローチである。
現在のアプローチでは、群衆は自然に多様な言い回しを提供したり、語彙の多様性にのみ焦点をあてていると仮定している。
このWiPでは、多様性の見過ごされた側面に対処し、シンタクティックに多様性のあるパラフレーズへのクラウドソーシングプロセスを導くアプローチを導入しました。
- 参考スコア(独自算出の注目度): 7.389726345013072
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A prominent approach to build datasets for training task-oriented bots is
crowd-based paraphrasing. Current approaches, however, assume the crowd would
naturally provide diverse paraphrases or focus only on lexical diversity. In
this WiP we addressed an overlooked aspect of diversity, introducing an
approach for guiding the crowdsourcing process towards paraphrases that are
syntactically diverse.
- Abstract(参考訳): タスク指向のボットをトレーニングするためのデータセットを構築するための顕著なアプローチは、クラウドベースのパラフレーズである。
しかし、現在のアプローチでは、群衆は自然に多様なパラフレーズを提供し、語彙の多様性にのみ焦点をあてている。
このWiPでは、多様性の見過ごされた側面に対処し、シンタクティックに多様性のあるパラフレーズへのクラウドソーシングプロセスを導くアプローチを導入しました。
関連論文リスト
- Unified Generative and Discriminative Training for Multi-modal Large Language Models [88.84491005030316]
生成的トレーニングにより、視覚言語モデル(VLM)は様々な複雑なタスクに取り組むことができる。
CLIPのようなモデルで実証された差別的トレーニングは、ゼロショットイメージテキストの分類と検索に優れています。
本稿では,両パラダイムの強みを統合する統一的アプローチを提案する。
論文 参考訳(メタデータ) (2024-11-01T01:51:31Z) - Diversity of Thought Improves Reasoning Abilities of LLMs [26.149914503910235]
大規模言語モデル(LLM)は、複雑な推論を必要とする設定で苦労するために文書化されている。
我々は、思考の多様性の手段として、入力プロンプトのバリエーションを作成し、活用する方法について議論する。
論文 参考訳(メタデータ) (2023-10-11T00:01:41Z) - Diversifying Joint Vision-Language Tokenization Learning [51.82353485389527]
画像とテキスト間で共同表現を構築することは、ビジュアル質問回答やビデオ質問回答といったタスクにとって重要なステップである。
トークン化学習プロセスの多様化による共同視覚言語表現学習を提案する。
論文 参考訳(メタデータ) (2023-06-06T05:41:42Z) - Cross-lingual Lifelong Learning [53.06904052325966]
本稿では,言語間連続学習(CCL)の評価パラダイムを提案する。
マルチリンガルなシーケンシャルな学習を特に難しいものにするための洞察を提供する。
この分析の意味は、異なる言語間連続学習のデシダータを測り、バランスをとる方法のレシピを含む。
論文 参考訳(メタデータ) (2022-05-23T09:25:43Z) - Shepherd Pre-trained Language Models to Develop a Train of Thought: An
Iterative Prompting Approach [30.117038793151004]
プレトレーニング言語モデル(PLM)は、複雑で多段階の推論手順を必要とするタスクを解決するために知識をリコールすることができない。
人間がこれらのタスクのために「思考の訓練」を開発するのと同じように、どのようにしてPLMにそのような能力を持たせることができるのか?
本稿では,現在のステップのコンテキスト上で条件付きプロンプトを動的に合成することで,これらの制約に対処する反復型コンテキスト認識プロンプトを提案する。
論文 参考訳(メタデータ) (2022-03-16T04:12:20Z) - Representation Learning for Resource-Constrained Keyphrase Generation [78.02577815973764]
本稿では,言語モデリングの目的を導くために,有能なスパンリカバリと有能なスパン予測を導入する。
提案手法が低リソースおよびゼロショットのキーフレーズ生成に有効であることを示す。
論文 参考訳(メタデータ) (2022-03-15T17:48:04Z) - Pushing Paraphrase Away from Original Sentence: A Multi-Round Paraphrase
Generation Approach [97.38622477085188]
パラフレーズの多様性を向上させるためにBTmPG(Back-Translation Guided Multi-round Paraphrase Generation)を提案する。
2つのベンチマークデータセット上でBTmPGを評価する。
論文 参考訳(メタデータ) (2021-09-04T13:12:01Z) - Informed Sampling for Diversity in Concept-to-Text NLG [8.883733362171034]
本稿では,言語生成モデルが確実に生成できる多様性のレベルを探索するために,Imitation Learningアプローチを提案する。
具体的には、任意のタイミングでどの単語が高品質な出力につながるかを識別するように訓練されたメタ分類器を用いて復号処理を強化する。
論文 参考訳(メタデータ) (2020-04-29T17:43:24Z) - Multimodal Routing: Improving Local and Global Interpretability of
Multimodal Language Analysis [103.69656907534456]
人間中心のタスクに強いパフォーマンスを持つ最近のマルチモーダル学習は、しばしばブラックボックスである。
本稿では,各入力サンプルに対して,入力モダリティと出力表現の重み付けを異なる方法で調整するマルチモーダルルーティングを提案する。
論文 参考訳(メタデータ) (2020-04-29T13:42:22Z) - Evaluating the Evaluation of Diversity in Natural Language Generation [43.05127848086264]
本稿では,自然言語生成システムにおける多様性指標を評価するためのフレームワークを提案する。
当社のフレームワークは,NLGシステムの改善に向けた重要なステップである,さまざまな多様性指標の理解を促進することができる。
論文 参考訳(メタデータ) (2020-04-06T20:44:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。