論文の概要: We are what we repeatedly do: Inducing and deploying habitual schemas in
persona-based responses
- arxiv url: http://arxiv.org/abs/2310.06245v1
- Date: Tue, 10 Oct 2023 01:44:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-11 21:08:50.416944
- Title: We are what we repeatedly do: Inducing and deploying habitual schemas in
persona-based responses
- Title(参考訳): 私たちは繰り返し、ペルソナベースのレスポンスで習慣スキーマを導入しデプロイします。
- Authors: Benjamin Kane and Lenhart Schubert
- Abstract要約: 対話技術の実践的な応用の多くは、特定の開発者が特定したペルソナに従って応答を生成する必要がある。
本稿では,対話生成のアプローチを提案し,関連するスキーマを検索して大きな言語モデルを適用し,ペルソナに基づく応答を生成する。
- 参考スコア(独自算出の注目度): 3.2271521193192734
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many practical applications of dialogue technology require the generation of
responses according to a particular developer-specified persona. While a
variety of personas can be elicited from recent large language models, the
opaqueness and unpredictability of these models make it desirable to be able to
specify personas in an explicit form. In previous work, personas have typically
been represented as sets of one-off pieces of self-knowledge that are retrieved
by the dialogue system for use in generation. However, in realistic human
conversations, personas are often revealed through story-like narratives that
involve rich habitual knowledge -- knowledge about kinds of events that an
agent often participates in (e.g., work activities, hobbies, sporting
activities, favorite entertainments, etc.), including typical goals,
sub-events, preconditions, and postconditions of those events. We capture such
habitual knowledge using an explicit schema representation, and propose an
approach to dialogue generation that retrieves relevant schemas to condition a
large language model to generate persona-based responses. Furthermore, we
demonstrate a method for bootstrapping the creation of such schemas by first
generating generic passages from a set of simple facts, and then inducing
schemas from the generated passages.
- Abstract(参考訳): 対話技術の多くの実用的な応用には、特定の開発者特定人格に応じた応答の生成が必要である。
最近の大規模言語モデルから様々なペルソナが導かれるが、これらのモデルの不透明さと予測不可能性により、ペルソナを明示的な形式で指定することが望ましい。
以前の研究では、ペルソナは一般的に1対1の自己知識の集合として表現され、それによって対話システムが生成時に使用する。
しかし、現実の人間との会話では、エージェントがしばしば参加する出来事の種類(仕事活動、趣味、スポーツ活動、お気に入りの娯楽など)に関する知識、典型的な目標、サブイベント、プリコンディション、ポストコンディションなど、リッチな習慣的知識を含む物語のような物語を通してペルソナが明らかにされることが多い。
明示的なスキーマ表現を用いてそのような習慣的知識をキャプチャし、対話生成手法を提案し、関連するスキーマを検索して大きな言語モデルを条件付けしてペルソナに基づく応答を生成する。
さらに,まず一連の単純な事実からジェネリックパスを生成し,生成したパスからスキーマを誘導することで,そのようなスキーマの作成をブートストラップする方法を示す。
関連論文リスト
- A Stack-Propagation Framework for Low-Resource Personalized Dialogue Generation [29.348053519918928]
対話生成および理解パイプラインを学習するための新しいスタックプロパゲーションフレームワークを提案する。
提案するフレームワークは、より小さなパーソナライズされた対話データから学ぶための、スタック化されたエンコーダとデコーダの恩恵を受けることができる。
論文 参考訳(メタデータ) (2024-10-26T13:09:21Z) - Attribution and Alignment: Effects of Local Context Repetition on
Utterance Production and Comprehension in Dialogue [6.886248462185439]
繰り返しは通常、言語モデル世代を評価する際に罰せられる。
人間はローカルとパートナーの特定の繰り返しを使用し、それらは人間のユーザーによって好まれ、対話におけるコミュニケーションをより成功させる。
本研究では, (a) 言語モデルが対話における人間的な繰り返しのレベルを生成するかどうか, (b) 理解中に使用する語彙再使用に関連する処理機構について検討する。
論文 参考訳(メタデータ) (2023-11-21T23:50:33Z) - Controllable Mixed-Initiative Dialogue Generation through Prompting [50.03458333265885]
混合開始対話タスクには、情報の繰り返し交換と会話制御が含まれる。
エージェントは、ポリシープランナーが定める特定の対話意図や戦略に従う応答を生成することにより、コントロールを得る。
標準的なアプローチは、これらの意図に基づいて生成条件を実行するために、訓練済みの言語モデルを微調整している。
代わりに、条件生成の微調整に代えて、大きな言語モデルをドロップインで置き換えるように促します。
論文 参考訳(メタデータ) (2023-05-06T23:11:25Z) - Prompt Learning for Domain Adaptation in Task-Oriented Dialogue [0.20305676256390934]
標準形式は意図分類の従来の方法に代わる有望な代替手段であることを示す。
標準形式はゼロまたは少数ショット設定で新しい、見えない領域に非常によく一般化することを示す。
論文 参考訳(メタデータ) (2022-11-10T14:16:00Z) - Zero-Shot On-the-Fly Event Schema Induction [61.91468909200566]
本稿では,大規模な言語モデルを用いて,高レベルなイベント定義,特定のイベント,引数,それらの関係を予測・付与するソースドキュメントを生成する手法を提案する。
我々のモデルを用いて、任意のトピックに関する完全なスキーマを、手動のデータ収集、すなわちゼロショットの方法で、オンザフライで生成することができる。
論文 参考訳(メタデータ) (2022-10-12T14:37:00Z) - Multimodal Dialogue Response Generation [27.611204319057393]
本稿では,対話履歴を入力とし,テキストシーケンスや画像を応答として生成するマルチモーダル対話生成モデルを提案する。
我々は、限られた訓練例しか利用できないという自然な仮定の下で、マルチモーダルな対話生成を考える。
このような低リソース環境では、モデル全体の多モーダル対話に依存するパラメータを分離するために、新しい対話エージェントであるDivterを考案する。
論文 参考訳(メタデータ) (2021-10-16T08:52:26Z) - Unsupervised Enrichment of Persona-grounded Dialog with Background
Stories [27.52543925693796]
既存の物語データセットの架空の物語を活用することにより、対話モデルにペルソナに関連する「背景物語」を付与する。
我々は、勾配に基づく書き直し手法を用いて対話応答を生成するために、検索されたストーリーの教師なし適応を行う。
提案手法は, より多様な応答を生成でき, 人間の評価者により, より活発で人間らしく評価されている。
論文 参考訳(メタデータ) (2021-06-15T18:20:27Z) - Cue Me In: Content-Inducing Approaches to Interactive Story Generation [74.09575609958743]
本研究では,対話型物語生成の課題に焦点をあてる。
本稿では、この追加情報を効果的に活用するための2つのコンテンツ誘導手法を提案する。
自動評価と人的評価の両方による実験結果から,これらの手法がよりトポロジ的な一貫性とパーソナライズされたストーリーを生み出すことが示された。
論文 参考訳(メタデータ) (2020-10-20T00:36:15Z) - Plug-and-Play Conversational Models [62.77150879036442]
我々はデコード時にさらなる計算を必要としないアプローチを導入し、また大きな言語モデルの微調整も必要としない。
我々は、広範囲な自動的・人的評価を通じて、複数の望ましい属性について、生成した会話応答に対する高い制御を実証する。
論文 参考訳(メタデータ) (2020-10-09T03:17:51Z) - Knowledge Injection into Dialogue Generation via Language Models [85.65843021510521]
InjKは対話生成モデルに知識を注入するための2段階のアプローチである。
まず、大規模言語モデルをトレーニングし、テキスト知識としてクエリする。
次に、対話生成モデルを作成し、テキスト知識と対応する応答を逐次生成する。
論文 参考訳(メタデータ) (2020-04-30T07:31:24Z) - Low-Resource Knowledge-Grounded Dialogue Generation [74.09352261943913]
我々は、限られた訓練例しか利用できないという自然な仮定のもと、知識基底による対話生成を考察する。
生成モデル全体から知識基底の対話に依存するパラメータを分離するために,不整合応答デコーダを考案する。
1/8のトレーニングデータだけで、我々のモデルは最先端のパフォーマンスを達成でき、ドメイン外の知識をうまく一般化できる。
論文 参考訳(メタデータ) (2020-02-24T16:20:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。