論文の概要: Gatsby Without the 'E': Crafting Lipograms with LLMs
- arxiv url: http://arxiv.org/abs/2505.20501v1
- Date: Mon, 26 May 2025 20:02:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.278669
- Title: Gatsby Without the 'E': Crafting Lipograms with LLMs
- Title(参考訳): E」のないGatsby:LLMでリポグラムを作る
- Authors: Rohan Balasubramanian, Nitish Gokulakrishnan, Syeda Jannatus Saba, Steven Skiena,
- Abstract要約: もっとも一般的な文字(「u」まで)の3.6%を除いた場合、文章の意味にはほとんど影響を与えなかった。
私たちの研究は、厳格な制約の下での英語の驚くべき柔軟性を強調し、いかに適応的で創造的な言語が使えるかを明らかにします。
- 参考スコア(独自算出の注目度): 8.342191073514417
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Lipograms are a unique form of constrained writing where all occurrences of a particular letter are excluded from the text, typified by the novel Gadsby, which daringly avoids all usage of the letter 'e'. In this study, we explore the power of modern large language models (LLMs) by transforming the novel F. Scott Fitzgerald's The Great Gatsby into a fully 'e'-less text. We experimented with a range of techniques, from baseline methods like synonym replacement to sophisticated generative models enhanced with beam search and named entity analysis. We show that excluding up to 3.6% of the most common letters (up to the letter 'u') had minimal impact on the text's meaning, although translation fidelity rapidly and predictably decays with stronger lipogram constraints. Our work highlights the surprising flexibility of English under strict constraints, revealing just how adaptable and creative language can be.
- Abstract(参考訳): リポグラム(Lipograms)は、特定の文字のすべての発生をテキストから除外する制約付き文字の一種で、小説『ギャズビー』に代表されるが、これは「e」のすべての使用を大胆に避けるものである。
本研究では,F・スコット・フィッツジェラルドの小説『The Great Gatsby』を完全「e」のないテキストに変換することによって,現代大言語モデル(LLM)のパワーを探求する。
ビームサーチと名前付きエンティティ分析によって強化された、同義語置換のようなベースライン手法から高度な生成モデルまで、さまざまな手法を実験した。
最大3.6%の文字(「u」の文字まで)を除いた場合,翻訳の忠実度は高いリポグラム制約で急速に低下するが,テキストの意味に最小限の影響が認められた。
私たちの研究は、厳格な制約の下での英語の驚くべき柔軟性を強調し、いかに適応的で創造的な言語が使えるかを明らかにします。
関連論文リスト
- Looking for the Inner Music: Probing LLMs' Understanding of Literary Style [3.5757761767474876]
作者のスタイルはジャンルのスタイルよりも定義しやすい。
代名詞の用法と語順は、両方の文学的スタイルを定義する上で重要である。
論文 参考訳(メタデータ) (2025-02-05T22:20:17Z) - Multifractal hopscotch in "Hopscotch" by Julio Cortazar [0.0]
文末の句読点は、その分布が自然言語の様々な特徴を決定できるため、特に重要である。
ここでは、Julio Cortazar の "Hopscotch" を表す文長変動(SLV)時系列を定量的解析する。
論文 参考訳(メタデータ) (2025-01-22T15:28:24Z) - Show, Don't Tell: Uncovering Implicit Character Portrayal using LLMs [19.829683714192615]
LIIPA(LIIPA)は,大きな言語モデルに暗黙的文字の描写を明らかにするためのフレームワークである。
LIIPAは既存の手法よりも優れており,文字数の増加に対してより堅牢であることがわかった。
我々の研究は、複雑な文字を解析するためにLLMを使うことの潜在的な利点を実証している。
論文 参考訳(メタデータ) (2024-12-05T19:46:53Z) - Coarse-to-Fine Highlighting: Reducing Knowledge Hallucination in Large Language Models [58.952782707682815]
COFTは、異なるレベルのキーテキストにフォーカスする新しい方法であり、長いコンテキストで失われることを避ける。
知識幻覚ベンチマークの実験ではCOFTの有効性が示され、F1スコアの30%以上の性能が向上した。
論文 参考訳(メタデータ) (2024-10-19T13:59:48Z) - Delving into ChatGPT usage in academic writing through excess vocabulary [4.58733012283457]
ChatGPTのような大きな言語モデル(LLM)は、人間レベルのパフォーマンスでテキストを生成し、修正することができる。
我々は2010年から2024年にかけての1400万のPubMed抽象語の語彙変化について検討し、LLMの出現がある種の単語の出現頻度の急激な増加につながったことを示す。
我々は,LLMが,コビッドパンデミックなどの世界大イベントの影響を超越して,科学文献に前例のない影響を与えていることを示す。
論文 参考訳(メタデータ) (2024-06-11T07:16:34Z) - LFED: A Literary Fiction Evaluation Dataset for Large Language Models [58.85989777743013]
元々は中国語で書かれたか、中国語に翻訳された95の文学小説を収集し、数世紀にわたって幅広い話題を扱っている。
質問分類を8つのカテゴリーで定義し,1,304の質問の作成を導く。
我々は、小説の特定の属性(小説の種類、文字番号、出版年など)がLLMのパフォーマンスに与える影響を詳細に分析する。
論文 参考訳(メタデータ) (2024-05-16T15:02:24Z) - The Ups and Downs of Large Language Model Inference with Vocabulary Trimming by Language Heuristics [74.99898531299148]
本研究は,興味のある言語への埋め込みエントリを制限し,時間と記憶効率を高めることによる語彙トリミング(VT)について検討する。
Unicodeベースのスクリプトフィルタリングとコーパスベースの選択という2つの言語を異なる言語ファミリやサイズに適用する。
その結果、VTは小型モデルのメモリ使用量を50%近く削減し、生成速度が25%向上した。
論文 参考訳(メタデータ) (2023-11-16T09:35:50Z) - Improving Factual Consistency of News Summarization by Contrastive Preference Optimization [65.11227166319546]
大規模言語モデル(LLM)は、本来の記事と現実的に矛盾する要約を生成する。
これらの幻覚は、従来の方法による検出が困難である。
本稿では,LLMの適合性を解消し,忠実で偽のコンテンツを生成するコントラスト優先最適化(CPO)を提案する。
論文 参考訳(メタデータ) (2023-10-30T08:40:16Z) - Most Language Models can be Poets too: An AI Writing Assistant and
Constrained Text Generation Studio [0.5097809301149341]
ほとんどの言語モデルは、大きな制約の下でも魅力的なテキストを生成する。
本稿では,言語モデルの語彙にフィルタ関数を合成することにより,言語モデルの出力を変更する手法を提案する。
また,この技術であるGadsbyを紹介するHuggingfaceスペースWebアプリケーションについても紹介する。
論文 参考訳(メタデータ) (2023-06-28T05:10:51Z) - Fine-tuning GPT-3 for Russian Text Summarization [77.34726150561087]
本稿では,テキストを要約するruGPT3(ruGPT3)機能について紹介し,それに対応する人文要約を用いてロシア語ニュースのコーパスを微調整する。
得られたテキストを一連のメトリクスで評価し、アーキテクチャや損失関数に付加的な変更を加えることなく、我々のソリューションが最先端のモデルの性能を上回ることができることを示す。
論文 参考訳(メタデータ) (2021-08-07T19:01:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。