論文の概要: BERTian Poetics: Constrained Composition with Masked LMs
- arxiv url: http://arxiv.org/abs/2110.15181v1
- Date: Thu, 28 Oct 2021 14:57:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 15:29:35.767913
- Title: BERTian Poetics: Constrained Composition with Masked LMs
- Title(参考訳): BERTian Poetics:masked LMsによる制約構成
- Authors: Christopher Akiki and Martin Potthast
- Abstract要約: マスケッド言語モデルは、メトロポリス-ハスティングスサンプルラーを用いて生成できるエネルギーベースのシーケンスモデルとして解釈されている。
本稿では、制約された構成にどのように組み込むことができるかを示し、そのような使用法によって示唆される詩学を探求する。
- 参考スコア(独自算出の注目度): 17.95109642164145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Masked language models have recently been interpreted as energy-based
sequence models that can be generated from using a Metropolis--Hastings
sampler. This short paper demonstrates how this can be instrumentalized for
constrained composition and explores the poetics implied by such a usage. Our
focus on constraints makes it especially apt to understand the generated text
through the poetics of the OuLiPo movement.
- Abstract(参考訳): マスク言語モデルは最近、メトロポリス-ハスティングス・サンプラーを用いて生成できるエネルギーベースのシーケンスモデルとして解釈されている。
この短い論文は、制約のある構成にいかに具体化できるかを示し、そのような用法によって暗示される詩学を探求する。
制約にフォーカスすることで、OuLiPo運動の詩を通して生成されたテキストを特に理解しやすくなります。
関連論文リスト
- ELLA: Equip Diffusion Models with LLM for Enhanced Semantic Alignment [20.868216061750402]
LLM(Large Language Models)とテキスト・画像拡散モデルを組み合わせた高能率大言語モデル適応器 ELLA を導入する。
提案手法は, 分割過程の異なる段階における意味的特徴に適応し, サンプリングタイムステップよりも長大かつ複雑なプロンプトを解釈する拡散モデルを支援する。
濃密なプロンプトにおけるテキスト・ツー・イメージのモデルを評価するために、1Kの濃密なプロンプトからなる挑戦的なベンチマークを導入する。
論文 参考訳(メタデータ) (2024-03-08T08:08:10Z) - Deep de Finetti: Recovering Topic Distributions from Large Language
Models [10.151434138893034]
大規模言語モデル(LLM)は長く一貫性のあるテキストを生成できる。
LLMは文書を特徴付ける潜在構造を表現する必要がある。
本稿では,文書のトピック構造を補完する側面について考察する。
論文 参考訳(メタデータ) (2023-12-21T16:44:39Z) - Unified Language-Vision Pretraining in LLM with Dynamic Discrete Visual Tokenization [52.935150075484074]
非言語的なイメージを外国語のような個別のトークン列に変換するために、よく設計されたビジュアルトークン化器を導入する。
結果として得られる視覚トークンは、単語に相応しいハイレベルな意味論を含み、画像から変化する動的シーケンス長もサポートする。
この統合によりLaVITは、マルチモーダルコンテンツの理解と生成を同時に行うための印象的な汎用インターフェースとして機能する。
論文 参考訳(メタデータ) (2023-09-09T03:01:38Z) - Representations Matter: Embedding Modes of Large Language Models using
Dynamic Mode Decomposition [4.314956204483074]
文を段落上に埋め込むスペクトルが、生成したテキストに対して常に低ランクであることを示す。
その結果,幻覚を呈する評価症例は,地中埋没パターンと一致していることがわかった。
このことは、幻覚は生成技術と基礎となる表現の両方から生じることを示唆している。
論文 参考訳(メタデータ) (2023-09-03T19:10:18Z) - PoetryDiffusion: Towards Joint Semantic and Metrical Manipulation in
Poetry Generation [58.36105306993046]
制御可能なテキスト生成は自然言語生成(NLG)において困難かつ有意義な分野である
本稿では,ソネット生成のための拡散モデルと中国語のSongCi詩の創始について述べる。
本モデルでは,人的評価だけでなく,意味的,計量的,総合的な性能の自動評価において,既存のモデルよりも優れる。
論文 参考訳(メタデータ) (2023-06-14T11:57:31Z) - SpectralCLIP: Preventing Artifacts in Text-Guided Style Transfer from a
Spectral Perspective [60.60970143677462]
本稿では,CLIP埋め込みシーケンスのスペクトル表現に基づくSpectralCLIPを提案する。
本稿では,SpectralCLIPが定量的・定性的に人工物の発生を効果的に防止していることを示す。
また、テキスト条件付き画像生成にSpectralCLIPを適用し、生成した画像中の文字を防止していることを示す。
論文 参考訳(メタデータ) (2023-03-16T12:53:07Z) - Does BERT really agree ? Fine-grained Analysis of Lexical Dependence on
a Syntactic Task [70.29624135819884]
目的の構文テンプレート上で,BERTが語彙非依存の主観値数アグリーメント(NA)を実行できる範囲について検討した。
名詞文では,単純なテンプレートに対してモデルがよく一般化されるが,1つのアトラクターが存在する場合,語彙非依存の構文一般化を行うことができないことが示唆された。
論文 参考訳(メタデータ) (2022-04-14T11:33:15Z) - Lexically-constrained Text Generation through Commonsense Knowledge
Extraction and Injection [62.071938098215085]
我々は、ある入力概念のセットに対して妥当な文を生成することを目的としているcommongenベンチマークに焦点を当てる。
生成したテキストの意味的正しさを高めるための戦略を提案する。
論文 参考訳(メタデータ) (2020-12-19T23:23:40Z) - Enabling Language Models to Fill in the Blanks [81.59381915581892]
文書中の任意の位置にあるテキストの欠落を予測するタスクである,テキストを埋め込むためのシンプルなアプローチを提案する。
我々は、人工的にマスキングされたテキストと隠蔽されたテキストの連結を含むシーケンスに基づいて、オフザシェルフ言語モデル(またはファインチューン)を訓練する。
言語モデリングにより,この手法により,3つの分野(短編,科学的な要約,歌詞)において,LMが文全体を効果的に埋め込むことができることを示す。
論文 参考訳(メタデータ) (2020-05-11T18:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。