論文の概要: Detecting Mode Collapse in Language Models via Narration
- arxiv url: http://arxiv.org/abs/2402.04477v1
- Date: Tue, 6 Feb 2024 23:52:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 17:32:58.164956
- Title: Detecting Mode Collapse in Language Models via Narration
- Title(参考訳): ナレーションによる言語モデルにおけるモード崩壊の検出
- Authors: Sil Hamilton
- Abstract要約: 3つのOpenAI言語モデルからサンプリングした4,374のストーリーについて検討した。
我々は、GPT-3の連続バージョンが「モード崩壊」の度合いの上昇に悩まされていることを示す。
社会学シミュレーションに言語モデルを用いたい研究者にとって,本手法と結果が重要である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: No two authors write alike. Personal flourishes invoked in written
narratives, from lexicon to rhetorical devices, imply a particular author--what
literary theorists label the implied or virtual author; distinct from the real
author or narrator of a text. Early large language models trained on unfiltered
training sets drawn from a variety of discordant sources yielded incoherent
personalities, problematic for conversational tasks but proving useful for
sampling literature from multiple perspectives. Successes in alignment research
in recent years have allowed researchers to impose subjectively consistent
personae on language models via instruction tuning and reinforcement learning
from human feedback (RLHF), but whether aligned models retain the ability to
model an arbitrary virtual author has received little scrutiny. By studying
4,374 stories sampled from three OpenAI language models, we show successive
versions of GPT-3 suffer from increasing degrees of "mode collapse" whereby
overfitting the model during alignment constrains it from generalizing over
authorship: models suffering from mode collapse become unable to assume a
multiplicity of perspectives. Our method and results are significant for
researchers seeking to employ language models in sociological simulations.
- Abstract(参考訳): 2人の作家が同じように書くことはない。
レキシコンから修辞学的な装置に至るまで、書かれた物語の中で個人的繁栄が引き起こされ、それは特定の著者、つまり、文学理論家たちが、本文の実際の著者やナレーターとは異なる、暗黙または仮想的な著者と名付けることを意味する。
様々な不協和性ソースから抽出された未フィルタリングトレーニングセットに基づいて訓練された初期の大きな言語モデルは、不整合な個性をもたらし、会話のタスクには問題があったが、複数の観点から文献をサンプリングするのに有用であった。
近年のアライメント研究の成功により、研究者はヒューマンフィードバック(RLHF)からの指導チューニングや強化学習を通じて、言語モデルに主観的に一貫したペルソナを課すことができたが、アライメントモデルが任意の仮想著者をモデル化する能力を保持するかどうかはほとんど調査されていない。
3つのOpenAI言語モデルからサンプリングされた4,374のストーリーを解析することにより、GPT-3の連続バージョンは「モード崩壊」の度合いの上昇に悩まされ、アライメント中のモデルに過度に適合することで、オーサシップを一般化することを防ぐ。
社会学シミュレーションに言語モデルを用いたい研究者にとって,本手法と結果が重要である。
関連論文リスト
- Few-Shot Detection of Machine-Generated Text using Style Representations [4.326503887981912]
人間の文章を巧みに模倣する言語モデルは、虐待のかなりのリスクを負う。
そこで本研究では,人間が作成したテキストから推定した書体スタイルの表現を活用することを提案する。
また,人間と機械作家の区別にも有効であることがわかった。
論文 参考訳(メタデータ) (2024-01-12T17:26:51Z) - ABINet++: Autonomous, Bidirectional and Iterative Language Modeling for
Scene Text Spotting [121.11880210592497]
言語モデルの限られた能力は,1)暗黙的な言語モデリング,2)一方向の特徴表現,3)雑音入力を伴う言語モデルから生じる。
シーンテキストスポッティングのための自律的で双方向かつ反復的なABINet++を提案する。
論文 参考訳(メタデータ) (2022-11-19T03:50:33Z) - Cloning Ideology and Style using Deep Learning [0.0]
研究は、特定の著者のイデオロギーとスタイルに基づくテキスト生成と、過去に同じ著者が書いたものではないトピックに関するテキスト生成に焦点を当てている。
Bi-LSTMモデルを用いて文字レベルでの予測を行う。
事前学習モデルを用いて、著者のコーパスと矛盾する真実の文を識別し、言語モデルを傾斜させる。
論文 参考訳(メタデータ) (2022-10-25T11:37:19Z) - Model Criticism for Long-Form Text Generation [113.13900836015122]
我々は,テキストの高レベル構造を評価するために,潜在空間におけるモデル批判という統計ツールを適用した。
我々は,コヒーレンス,コア,トピックスという,ハイレベルな談話の3つの代表的な側面について実験を行った。
トランスフォーマーベースの言語モデルでは、トピック構造をキャプチャできるが、構造コヒーレンスやモデリングコアスを維持するのが難しくなる。
論文 参考訳(メタデータ) (2022-10-16T04:35:58Z) - Integrating Linguistic Theory and Neural Language Models [2.870517198186329]
理論的言語学とニューラル言語モデルが相互にどのように関係しているかを説明するためのケーススタディをいくつか提示する。
この論文は、言語モデルにおける構文意味インタフェースの異なる側面を探求する3つの研究に貢献する。
論文 参考訳(メタデータ) (2022-07-20T04:20:46Z) - Quark: Controllable Text Generation with Reinforced Unlearning [68.07749519374089]
大規模言語モデルは、しばしばユーザの期待に合わない振る舞いを学ぶ。
本稿では,(不必要な)特性を定量化する報酬関数を最適化するアルゴリズムQuarkを紹介する。
未学習の毒性、ネガティブな感情、反復について、我々の実験はQuarkが強いベースラインと最先端の強化学習法の両方より優れていることを示している。
論文 参考訳(メタデータ) (2022-05-26T21:11:51Z) - On Advances in Text Generation from Images Beyond Captioning: A Case
Study in Self-Rationalization [89.94078728495423]
近年のモダリティ,CLIP画像表現,言語モデルの拡張は,マルチモーダル入力によるタスクのマルチモーダル自己調整を一貫して改善していないことを示す。
画像キャプションを超えて画像やテキストからテキストを生成するために構築可能なバックボーンモデリング手法が提案されている。
論文 参考訳(メタデータ) (2022-05-24T00:52:40Z) - Testing the Ability of Language Models to Interpret Figurative Language [69.59943454934799]
比喩的・比喩的な言語は言論において一般的である。
現代の言語モデルが非リテラルなフレーズをどの程度解釈できるかについては、未解決の疑問が残る。
ウィノグラードスタイルの非文字言語理解タスクであるFig-QAを紹介する。
論文 参考訳(メタデータ) (2022-04-26T23:42:22Z) - Estimating the Personality of White-Box Language Models [0.589889361990138]
大規模なテキストコーパスで訓練された大規模言語モデルは、至る所で広範囲のアプリケーションで使用されている。
既存の研究は、これらのモデルが人間の偏見を捉え、捉えていることを示している。
これらのバイアス、特に害を引き起こす可能性のあるバイアスの多くは、十分に調査されている。
しかし、これらのモデルによって受け継がれた人間の性格特性を推測し、変化させる研究は、ほとんど、あるいは存在しない。
論文 参考訳(メタデータ) (2022-04-25T23:53:53Z) - Uncovering Constraint-Based Behavior in Neural Models via Targeted
Fine-Tuning [9.391375268580806]
本研究は,言語知識が不明な言語内での競合する言語プロセスを示す。
人間の行動は言語間で類似していることがわかったが、モデル行動の言語間差異は見いだされている。
以上の結果から,言語における言語的制約と相対的ランクの双方をモデルが学習する必要があることが示唆された。
論文 参考訳(メタデータ) (2021-06-02T14:52:11Z) - Read Like Humans: Autonomous, Bidirectional and Iterative Language
Modeling for Scene Text Recognition [80.446770909975]
言語知識はシーンのテキスト認識に非常に有益である。
エンドツーエンドのディープネットワークで言語規則を効果的にモデル化する方法はまだ研究の課題です。
シーンテキスト認識のための自律的双方向反復型ABINetを提案する。
論文 参考訳(メタデータ) (2021-03-11T06:47:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。