論文の概要: Do Language Models Refer?
- arxiv url: http://arxiv.org/abs/2308.05576v1
- Date: Thu, 10 Aug 2023 13:39:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-11 12:18:10.063394
- Title: Do Language Models Refer?
- Title(参考訳): 言語モデルは参照されるか?
- Authors: Matthew Mandelkern and Tal Linzen
- Abstract要約: 我々は、外見は誤解を招くものであり、LMが参照できると考えるのに十分な理由があると主張している。
LMが通常の言語使用者のように世界と相互作用しないため、それらがそうではないと考えるのはプリマ・ファシエな理由である。
- 参考スコア(独自算出の注目度): 19.308884420859027
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: What do language models (LMs) do with language? Everyone agrees that they
produce sequences of (mostly) coherent sentences. But are they saying anything
with those strings or simply babbling in a convincing simulacrum of language
use? This is a vague question, and there are many ways of making it precise.
Here we will address one aspect of the question, namely, whether LMs' words
refer: that is, whether the outputs of LMs achieve "word-to-world" connections.
There is prima facie reason to think they do not since LMs do not interact with
the world in the way that ordinary language users do. Drawing on insights from
the externalist tradition in philosophy of language, we argue that appearances
are misleading and that there is good reason to think that LMs can refer.
- Abstract(参考訳): 言語モデル(LM)は言語と何をしますか?
全員が、(ほとんど)コヒーレントな文のシーケンスを作成することに同意する。
しかし、これらの文字列で何かを言っているのか、それとも単に説得力のある言語使用のシミュラクルでバブリングしているだけなのか?
これは曖昧な質問であり、正確化には多くの方法があります。
ここでは、lmsの単語が参照するかどうか、すなわち、lmsの出力が"word-to-world"接続を達成するかどうかという問題の一面に対処します。
lmsが通常の言語ユーザーのように世界と相互作用しないからではないと考えるのは、原始的な理由がある。
言語哲学における外部主義の伝統からの洞察を引いて、外観は誤解を招くものであり、lmsが参照できると考える正当な理由があると主張する。
関連論文リスト
- Dictionary Insertion Prompting for Multilingual Reasoning on Multilingual Large Language Models [52.00446751692225]
textbfDictionary textbfInsertion textbfPrompting (textbfDIP) という,新規かつシンプルで効果的な方法を提案する。
非英語のプロンプトを提供する際、DIPは単語辞書を調べ、単語の英語のプロンプトをLLMのプロンプトに挿入する。
そして、英語へのより良い翻訳とより良い英語モデル思考のステップを可能にし、明らかにより良い結果をもたらす。
論文 参考訳(メタデータ) (2024-11-02T05:10:50Z) - Do language models practice what they preach? Examining language ideologies about gendered language reform encoded in LLMs [6.06227550292852]
我々は、英語のジェンダー化言語改革を事例として、LLMが作成したテキストにおける言語イデオロギーについて研究する。
LLMは「正しい」あるいは「自然な」言語を使うよう求められた時、保守的な(進歩的な)価値観に合わせるよう求められた時と、最もよく似た言語を使用する。
このことは、LLMが生成したテキストで表現される言語イデオロギーがいかに異なるかを示しており、これはユーザにとって予期せぬことである。
論文 参考訳(メタデータ) (2024-09-20T18:55:48Z) - On the referential capacity of language models: An internalist rejoinder to Mandelkern & Linzen [1.03590082373586]
最近の論文で、Mandelkern & Linzen (2024) は言語モデル(LM)の単語が参照するかどうかという問題に対処している。
彼らの議論は、哲学的意味論における外部主義の伝統から引かれており、これは「「言葉と世界」を結び付ける」言葉の能力であると見なしている。
このコメンタリーでは、まずM&Lの主張を、自然言語表現の狭いクラスに適用するものとして評価する。
それらの公式化によって、LMにおける参照に関する不確実な一般化がもたらされることを示唆する。
論文 参考訳(メタデータ) (2024-05-31T19:43:20Z) - "Understanding AI": Semantic Grounding in Large Language Models [0.0]
LLMを含む生成モデルが自己教師型学習の鍵となるため、私たちは最近、AIの世代的転換を目撃しました。
セマンティック・グラウンディングの課題を評価するために,5つの方法論を区別し,議論する。
論文 参考訳(メタデータ) (2024-02-16T14:23:55Z) - When Language Models Fall in Love: Animacy Processing in Transformer
Language Models [38.79717627047192]
我々は,トランスフォーマー言語モデル (LM) が,アニマシーが典型的である実体を提示するとき,人間のように振る舞うことを示す。
また、愛のピーナッツのような非典型的なアニメーターの物語を提示しても、LMは適応することを示した。
我々は、LMがアニマシーについて学べる限られた信号にもかかわらず、それらが実際に英語で利用可能な関連する語彙的意味ニュアンスに敏感である、と結論付けた。
論文 参考訳(メタデータ) (2023-10-23T14:57:52Z) - Word Embeddings Are Steers for Language Models [57.83026781380927]
このようなステアをLM-Steersと呼び、すべてのサイズのLMに存在するものを見つけます。
言語モデルのデトックス化や感情制御といったタスクでは、LM-Steersは同等または優れたパフォーマンスを達成することができる。
LM-Steerは明示的な形式計算により異なる言語モデル間で転送可能である。
論文 参考訳(メタデータ) (2023-05-22T07:52:04Z) - Language Models as Agent Models [42.37422271002712]
LMは、特定の狭義の意図的なコミュニケーションのモデルである、と私は主張する。
今日の非破壊的かつエラーを起こしやすいモデルでさえ、LMはきめ細かいコミュニケーション意図の表現を推論し、使用します。
論文 参考訳(メタデータ) (2022-12-03T20:18:16Z) - Extensible Prompts for Language Models on Zero-shot Language Style
Customization [89.1622516945109]
X-Promptは、自然言語(NL)を超えた大きな言語モデル(LLM)を指示する
新しい想像的単語を登録することで、LLMにNL単語で記述するのが難しい概念を理解するよう指示することができる。
これらの虚構語は、様々なプロンプトでNL語のように(再)使用できるように、分布外頑健であるように設計されている。
論文 参考訳(メタデータ) (2022-12-01T16:11:56Z) - Language Models of Code are Few-Shot Commonsense Learners [106.1531522893209]
自然言語入力が与えられた場合、目標はイベントや推論グラフなどのグラフを生成することだ。
既存のアプローチは、出力グラフをノードとエッジのフラットリストとしてシリアライズする。
コード生成タスクとして構造化コモンセンス推論タスクをフレーム化する場合、事前学習されたコードLMは自然言語のLMよりも構造化コモンセンス推論タスクの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-10-13T16:09:36Z) - Reusing a Pretrained Language Model on Languages with Limited Corpora
for Unsupervised NMT [129.99918589405675]
本稿では,オープンソース言語上でのみ事前訓練されたLMを再利用する効果的な手法を提案する。
モノリンガルLMは両言語で微調整され、UNMTモデルの初期化に使用される。
我々のアプローチであるRE-LMは、英語・マケドニア語(En-Mk)と英語・アルバニア語(En-Sq)の競合言語間事前学習モデル(XLM)より優れています。
論文 参考訳(メタデータ) (2020-09-16T11:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。