論文の概要: Learning to generate and corr- uh I mean repair language in real-time
- arxiv url: http://arxiv.org/abs/2308.11683v1
- Date: Tue, 22 Aug 2023 15:09:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 17:20:00.117255
- Title: Learning to generate and corr- uh I mean repair language in real-time
- Title(参考訳): 生成と理解の学習---つまり、リアルタイムでの補修言語
- Authors: Arash Eshghi, Arash Ashrafzadeh
- Abstract要約: 逐次生成のための確率モデルを開発し,訓練し,評価する。
その結果, ROUGE-lスコア0.86の78%のケースでは, モデル出力が金候補と正確に一致していることがわかった。
生成目標が発話の途中で変化すると、同じモデルで自己修復を行う能力をゼロショットで評価する。
- 参考スコア(独自算出の注目度): 2.5537495904083496
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In conversation, speakers produce language incrementally, word by word, while
continuously monitoring the appropriateness of their own contribution in the
dynamically unfolding context of the conversation; and this often leads them to
repair their own utterance on the fly. This real-time language processing
capacity is furthermore crucial to the development of fluent and natural
conversational AI. In this paper, we use a previously learned Dynamic Syntax
grammar and the CHILDES corpus to develop, train and evaluate a probabilistic
model for incremental generation where input to the model is a purely semantic
generation goal concept in Type Theory with Records (TTR). We show that the
model's output exactly matches the gold candidate in 78% of cases with a
ROUGE-l score of 0.86. We further do a zero-shot evaluation of the ability of
the same model to generate self-repairs when the generation goal changes
mid-utterance. Automatic evaluation shows that the model can generate
self-repairs correctly in 85% of cases. A small human evaluation confirms the
naturalness and grammaticality of the generated self-repairs. Overall, these
results further highlight the generalisation power of grammar-based models and
lay the foundations for more controllable, and naturally interactive
conversational AI systems.
- Abstract(参考訳): 会話において、話者は、会話の動的に展開する文脈における自身の貢献の適切さを継続的に監視しながら、単語ごとに言語を段階的に生成する。
このリアルタイム言語処理能力は、さらにフルーエントで自然な会話型aiの開発に不可欠である。
本稿では、これまでに学習した動的構文文法とCHILDESコーパスを用いて、モデルへの入力がレコード付き型理論(TTR)における純粋意味生成目標概念であるインクリメンタル生成のための確率モデルの開発と訓練、評価を行う。
その結果, ROUGE-lスコア0.86の78%のケースでは, モデル出力が金候補と正確に一致していることがわかった。
さらに,生成目標が発話中に変化する場合に,同一モデルが自己修復を行う能力についてゼロショット評価を行う。
自動評価は、85%のケースで自己修復を正しく生成できることを示している。
小さな人間評価は、生成された自己修復者の自然性と文法性を確認する。
これらの結果は、文法ベースのモデルの一般化能力をさらに強調し、より制御可能で自然な対話型AIシステムの基礎を築いた。
関連論文リスト
- Trustworthy Alignment of Retrieval-Augmented Large Language Models via Reinforcement Learning [84.94709351266557]
検索強化に関して,言語モデルの信頼性に焦点をあてる。
検索強化言語モデルには,文脈的知識とパラメトリック的知識の両方に応じて応答を供給できる本質的な能力があると考えられる。
言語モデルと人間の嗜好の整合性に着想を得て,検索強化言語モデルを外部証拠にのみ依存する状況に整合させるための第一歩を踏み出した。
論文 参考訳(メタデータ) (2024-10-22T09:25:21Z) - Disco-Bench: A Discourse-Aware Evaluation Benchmark for Language
Modelling [70.23876429382969]
本研究では,多種多様なNLPタスクに対して,文内談話特性を評価できるベンチマークを提案する。
ディスコ・ベンチは文学領域における9つの文書レベルのテストセットから構成されており、豊富な談話現象を含んでいる。
また,言語分析のために,対象モデルが談話知識を学習するかどうかを検証できる診断テストスイートを設計する。
論文 参考訳(メタデータ) (2023-07-16T15:18:25Z) - Structured Like a Language Model: Analysing AI as an Automated Subject [0.0]
我々は、大規模言語モデルに対する主観性の意図的な予測は、AIの振る舞いを分析できる別のフレームを生み出すことができると論じる。
我々は、最先端の自然言語処理性能を実現するシステムのリリースにおいて、言語モデルに関する短い歴史を辿る。
批判的メディア手法と精神分析理論が組み合わさって、AI駆動型言語システムの強力な新しい能力を把握するための生産的枠組みを提供すると結論付けている。
論文 参考訳(メタデータ) (2022-12-08T21:58:43Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - Estimating Subjective Crowd-Evaluations as an Additional Objective to
Improve Natural Language Generation [0.0]
我々は6つの異なる言語生成モデルについて,群衆による対話コーパスを用いて微調整を行う。
これらのモデルのうち2つはマルチタスク学習を取り入れ、明確な学習目標の一部としてラインの主観評価を使用する。
生成した対話行の人間による評価では、マルチタスクモデルによって生成された発話が主観的に最も典型的であり、最も会話を前進させ、最も攻撃的であることを明らかにした。
論文 参考訳(メタデータ) (2021-04-12T06:33:16Z) - Knowledge-Grounded Dialogue Generation with Pre-trained Language Models [74.09352261943911]
我々は、事前学習された言語モデルを用いた知識基底対話生成について研究する。
本稿では,知識選択モジュールを用いた事前学習言語モデルによって定義された等価応答生成を提案する。
論文 参考訳(メタデータ) (2020-10-17T16:49:43Z) - MEGATRON-CNTRL: Controllable Story Generation with External Knowledge
Using Large-Scale Language Models [98.53511229517463]
本稿では,大規模言語モデルを用いた新しいフレームワークを提案し,外部知識ベースを組み込んだテキスト生成制御を提案する。
本フレームワークは,キーワード予測器,知識検索器,文脈知識ランキング器,条件付きテキスト生成器から構成される。
実験の結果、我々のモデルは、ROCストーリーデータセットの以前の作業と比較して、反復性が低く、多様性が低い、より流動的で、一貫性があり、一貫性のあるストーリーを生成します。
論文 参考訳(メタデータ) (2020-10-02T08:07:12Z) - A Controllable Model of Grounded Response Generation [122.7121624884747]
現在のエンドツーエンドのニューラルネットワークモデルは、応答生成プロセスにセマンティックコントロールを課す柔軟性を本質的に欠いている。
我々は制御可能な接地応答生成(CGRG)と呼ばれるフレームワークを提案する。
このフレームワークを用いることで、会話のようなRedditデータセットでトレーニングされた、新しいインダクティブアテンション機構を備えたトランスフォーマーベースのモデルが、強力な生成ベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2020-05-01T21:22:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。