論文の概要: What is Wrong with Language Models that Can Not Tell a Story?
- arxiv url: http://arxiv.org/abs/2211.05044v2
- Date: Thu, 10 Nov 2022 16:14:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 13:54:03.079523
- Title: What is Wrong with Language Models that Can Not Tell a Story?
- Title(参考訳): 物語を語れない言語モデルと何が間違っているのか?
- Authors: Ivan P. Yamshchikov and Alexey Tikhonov
- Abstract要約: 本稿では,物語のより深い理解とより長い主観的興味あるテキストの生成が,現代自然言語処理(NLP)の進歩を妨げる重要なボトルネックであると主張している。
ナラティブ処理の作業に使用できる適切なデータセットや評価方法,さらには運用上の概念さえ存在しないことを実証する。
- 参考スコア(独自算出の注目度): 20.737171876839238
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper argues that a deeper understanding of narrative and the successful
generation of longer subjectively interesting texts is a vital bottleneck that
hinders the progress in modern Natural Language Processing (NLP) and may even
be in the whole field of Artificial Intelligence. We demonstrate that there are
no adequate datasets, evaluation methods, and even operational concepts that
could be used to start working on narrative processing.
- Abstract(参考訳): 本稿では,物語のより深い理解と,より主観的に興味深いテキストの生成の成功は,現代自然言語処理(nlp)の進展を妨げる重要なボトルネックであり,人工知能の分野全体に存在する可能性も示唆する。
ナラティブ処理の作業に使用できる適切なデータセットや評価方法,さらには運用上の概念さえ存在しないことを実証する。
関連論文リスト
- Evolution of Natural Language Processing Technology: Not Just Language
Processing Towards General Purpose AI [0.0]
本報告は,最先端NLPがいかにして「実践が完璧である」原理を実現するかの技術的説明を提供する。
深層学習を用いて大量のテキストデータを学習した結果,初期予測を超える成果が報告されている。
大量のテキストデータを用いて「実践は完璧」という概念を具現化した学習者の正確な例である。
論文 参考訳(メタデータ) (2023-10-10T00:41:38Z) - Putting Natural in Natural Language Processing [11.746833714322156]
NLPの分野は、音声言語よりも文字処理に重点を置いている。
近年の深層学習の進歩は,音声処理と主流NLPの手法に顕著な収束をもたらしている。
真に自然言語処理は、他の言語科学とのより良い統合につながる可能性がある。
論文 参考訳(メタデータ) (2023-05-08T09:29:31Z) - Robust Preference Learning for Storytelling via Contrastive
Reinforcement Learning [53.92465205531759]
制御された自動ストーリ生成は、自然言語批判や嗜好から制約を満たす自然言語ストーリを生成することを目指している。
対照的なバイエンコーダモデルをトレーニングし、ストーリーを人間の批評と整合させ、汎用的な嗜好モデルを構築する。
我々はさらに、ストーリー生成の堅牢性を高めるために、プロンプトラーニング技術を用いて、対照的な報酬モデルを微調整する。
論文 参考訳(メタデータ) (2022-10-14T13:21:33Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - Visualizing and Explaining Language Models [0.0]
自然言語処理はコンピュータビジョンの後、人工知能の第2の分野となった。
本稿では,NLPビジュアライゼーションにおいて最もポピュラーなDeep Learningの手法について紹介し,解釈可能性と説明可能性に着目した。
論文 参考訳(メタデータ) (2022-04-30T17:23:33Z) - Testing the Ability of Language Models to Interpret Figurative Language [69.59943454934799]
比喩的・比喩的な言語は言論において一般的である。
現代の言語モデルが非リテラルなフレーズをどの程度解釈できるかについては、未解決の疑問が残る。
ウィノグラードスタイルの非文字言語理解タスクであるFig-QAを紹介する。
論文 参考訳(メタデータ) (2022-04-26T23:42:22Z) - Cut the CARP: Fishing for zero-shot story evaluation [0.0]
対照的なオーサリングとレビュー ペアリングは、ストーリーの優れたゼロショット評価を行うためのスケーラブルで効率的な方法です。
本稿では,物語の人的評価とCARPの人的評価との間に強い相関関係を示す。
また,8万件以上のストーリーから得られた130万件のストーリー批判ペアからなる新たなコーパスであるStory-Critiqueデータセットを提示,分析した。
論文 参考訳(メタデータ) (2021-10-06T23:50:46Z) - Deep Learning for Text Style Transfer: A Survey [71.8870854396927]
テキストスタイル転送は、生成したテキストの特定の属性を制御することを目的として、自然言語生成において重要なタスクである。
2017年の最初のニューラルテキストスタイル転送作業以降,100以上の代表的な記事を対象とした,ニューラルテキストスタイル転送の研究の体系的な調査を行う。
タスクの定式化、既存のデータセットとサブタスク、評価、並列データと非並列データの存在下での豊富な方法論について論じる。
論文 参考訳(メタデータ) (2020-11-01T04:04:43Z) - Controlled Hallucinations: Learning to Generate Faithfully from Noisy
Data [1.0914300987810126]
本稿では,このような幻覚を生成テキストの制御可能な側面として扱う手法を提案する。
特にノイズの多いデータセットであるWikiBio corpusでは,自動評価と人的評価の両方において,この手法の有効性を実証している。
論文 参考訳(メタデータ) (2020-10-12T17:25:02Z) - Knowledge-Aware Procedural Text Understanding with Multi-Stage Training [110.93934567725826]
本稿では,このような文書の理解とプロセス中のエンティティの状態や場所の追跡を目的とした手続き的テキスト理解の課題に焦点をあてる。
常識的推論の難しさとデータ不足という2つの課題はまだ未解決のままである。
我々は、複数の外部知識を効果的に活用する、KnOwledge-Aware ProceduraL text understAnding (KOALA)モデルを提案する。
論文 参考訳(メタデータ) (2020-09-28T10:28:40Z) - A Knowledge-Enhanced Pretraining Model for Commonsense Story Generation [98.25464306634758]
本稿では,外部知識ベースからのコモンセンス知識を利用して,合理的なストーリーを生成することを提案する。
我々は,真と偽のストーリーを識別するための差別的目的を組み合わせたマルチタスク学習を採用している。
我々のモデルは、特に論理学とグローバルコヒーレンスの観点から、最先端のベースラインよりも合理的なストーリーを生成することができる。
論文 参考訳(メタデータ) (2020-01-15T05:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。