論文の概要: The Problem of Alignment
- arxiv url: http://arxiv.org/abs/2401.00210v1
- Date: Sat, 30 Dec 2023 11:44:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 18:32:24.946893
- Title: The Problem of Alignment
- Title(参考訳): アライメントの問題は
- Authors: Tsvetelina Hristova, Liam Magee, Karen Soldatic
- Abstract要約: 大規模言語モデルは、大きなコーパスから統計的パターンとして学習されたシーケンスを生成する。
最初のトレーニングモデルが人間の価値観と一致しなくてはならない場合、他のモデルよりも一定の継続が望ましい。
ユーザとモデル間の双方向インタラクションとして,この構造化の実践について検討する。
- 参考スコア(独自算出の注目度): 1.2277343096128712
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Models produce sequences learned as statistical patterns from
large corpora. In order not to reproduce corpus biases, after initial training
models must be aligned with human values, preferencing certain continuations
over others. Alignment, which can be viewed as the superimposition of normative
structure onto a statistical model, reveals a conflicted and complex
interrelationship between language and technology. This relationship shapes
theories of language, linguistic practice and subjectivity, which are
especially relevant to the current sophistication in artificially produced
text. We examine this practice of structuration as a two-way interaction
between users and models by analysing how ChatGPT4 redacts perceived
`anomalous' language in fragments of Joyce's Ulysses and the new linguistic
practice of prompt engineering. We then situate this alignment problem
historically, revisiting earlier postwar linguistic debates which counterposed
two views of meaning: as discrete structures, and as continuous probability
distributions. We discuss the largely occluded work of the Moscow Linguistic
School, which sought to reconcile this opposition. Our attention to the Moscow
School and later related arguments by Searle and Kristeva casts the problem of
alignment in a new light: as one involving attention to the social
structuration of linguistic practice, including structuration of anomalies
that, like the Joycean text, exist in defiance of expressive conventions. These
debates around the communicative orientation toward language can help explain
some of the contemporary behaviours and interdependencies that take place
between users and LLMs.
- Abstract(参考訳): 大きな言語モデルは、大きなコーパスから統計的パターンとして学習されたシーケンスを生成する。
コーパスバイアスを再現しないためには、最初のトレーニングモデルが人間の値に一致し、他のモデルよりも一定の継続を前提にする必要がある。
統計的モデルへの規範的構造の重ね合わせと見なすことができるアライメントは、言語と技術の間の相反する複雑な相互関係を明らかにする。
この関係は言語、言語実践、主観性の理論を形作っているが、これは特に人工的なテキストの現在の洗練に関係している。
本稿では,ChatGPT4がジョイスのユリシーズの断片において,「無意味」な言語をどう認識するかを解析することにより,ユーザとモデル間の双方向インタラクションとしての構造化の実践を検討する。
そして、このアライメント問題を歴史的に検討し、戦後の言語学的議論を再考し、2つの意味論、すなわち離散構造として、そして連続確率分布として論じる。
我々は、この反対を和らげようとするモスクワ言語学派のほとんどが没頭した研究について論じる。
モスクワ学派に対する我々の注意と、後のサーレとクリステヴァの議論は、新しい光にアライメントの問題を投げかけている: ジョイスのテキストのように表現的な慣習に反抗して存在する異常の構造化を含む、言語の実践の社会的構造化に注意を向けるものとして。
言語に対するコミュニケーション指向に関するこれらの議論は、ユーザとllmの間で起こる現代の行動や相互依存性を説明するのに役立ちます。
関連論文リスト
- Finding Structure in Language Models [3.882018118763685]
この論文は、言語モデルが人間のものと似た文法構造を深く理解しているかどうかに関するものである。
我々は,大規模言語モデルの複雑な性質の理解を深める新しい解釈可能性技術を開発する。
論文 参考訳(メタデータ) (2024-11-25T14:37:24Z) - Constructive Approach to Bidirectional Causation between Qualia Structure and Language Emergence [5.906966694759679]
本稿では,言語出現と主観的経験の関連構造との双方向因果関係について考察する。
我々は、個人間の内部表現を整合させる過程を通じて、たとえば構文・意味構造のような分布意味を持つ言語が出現したかもしれないと仮定する。
論文 参考訳(メタデータ) (2024-09-14T11:03:12Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - BabySLM: language-acquisition-friendly benchmark of self-supervised
spoken language models [56.93604813379634]
音声表現を学習するための自己指導技術は、人間のラベルを必要とせずに、音声への露出から言語能力を高めることが示されている。
語彙および構文レベルで音声言語モデルを探索するために,言語習得に親しみやすいベンチマークを提案する。
テキストと音声のギャップを埋めることと、クリーンな音声とその内話のギャップを埋めることである。
論文 参考訳(メタデータ) (2023-06-02T12:54:38Z) - Natural Language Decompositions of Implicit Content Enable Better Text
Representations [56.85319224208865]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - Cross-Align: Modeling Deep Cross-lingual Interactions for Word Alignment [63.0407314271459]
提案したCross-Alignは、5つの言語ペアのうち4つで最先端(SOTA)のパフォーマンスを達成する。
実験の結果,提案したCross-Alignは5つの言語ペアのうち4つで最先端(SOTA)のパフォーマンスを達成することがわかった。
論文 参考訳(メタデータ) (2022-10-09T02:24:35Z) - The Whole Truth and Nothing But the Truth: Faithful and Controllable
Dialogue Response Generation with Dataflow Transduction and Constrained
Decoding [65.34601470417967]
本稿では,ニューラルネットワークモデリングとルールベース生成の強みを組み合わせた対話応答生成のためのハイブリッドアーキテクチャについて述べる。
本実験により, 本システムは, 流布性, 妥当性, 真理性の評価において, ルールベースおよび学習的アプローチの両方に優れることがわかった。
論文 参考訳(メタデータ) (2022-09-16T09:00:49Z) - Improving Neural Cross-Lingual Summarization via Employing Optimal
Transport Distance for Knowledge Distillation [8.718749742587857]
言語間の要約モデルは、2つの言語のトークン間での自己認識機構に依存している。
本稿では,言語間要約のための知識蒸留に基づく新しいフレームワークを提案する。
提案手法は,高解像度および低出力の条件下での最先端モデルよりも優れる。
論文 参考訳(メタデータ) (2021-12-07T03:45:02Z) - Schr\"odinger's Tree -- On Syntax and Neural Language Models [10.296219074343785]
言語モデルは、NLPのワークホースとして登場し、ますます流動的な生成能力を示している。
我々は、多くの次元にまたがる明瞭さの欠如を観察し、研究者が形成する仮説に影響を及ぼす。
本稿では,構文研究における様々な研究課題の意義について概説する。
論文 参考訳(メタデータ) (2021-10-17T18:25:23Z) - Modelling Compositionality and Structure Dependence in Natural Language [0.12183405753834563]
言語学と集合論に基づいて、これらの概念の形式化がこの論文の前半で述べられている。
言語処理を行う認知システムは,特定の機能的制約を持つ必要がある。
単語埋め込み技術の進歩を利用して、関係学習のモデルがシミュレートされる。
論文 参考訳(メタデータ) (2020-11-22T17:28:50Z) - Structured Attention for Unsupervised Dialogue Structure Induction [110.12561786644122]
本稿では、構造化された注意層を離散潜在状態を持つ変化型リカレントニューラルネットワーク(VRNN)モデルに組み込んで、教師なしの方法で対話構造を学ぶことを提案する。
バニラVRNNと比較して、構造化された注意は、構造的帰納バイアスを強制しながら、ソース文の埋め込みの異なる部分にフォーカスすることができる。
論文 参考訳(メタデータ) (2020-09-17T23:07:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。