論文の概要: Do Language Models Refer?
- arxiv url: http://arxiv.org/abs/2308.05576v1
- Date: Thu, 10 Aug 2023 13:39:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-11 12:18:10.063394
- Title: Do Language Models Refer?
- Title(参考訳): 言語モデルは参照されるか?
- Authors: Matthew Mandelkern and Tal Linzen
- Abstract要約: 我々は、外見は誤解を招くものであり、LMが参照できると考えるのに十分な理由があると主張している。
LMが通常の言語使用者のように世界と相互作用しないため、それらがそうではないと考えるのはプリマ・ファシエな理由である。
- 参考スコア(独自算出の注目度): 19.308884420859027
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: What do language models (LMs) do with language? Everyone agrees that they
produce sequences of (mostly) coherent sentences. But are they saying anything
with those strings or simply babbling in a convincing simulacrum of language
use? This is a vague question, and there are many ways of making it precise.
Here we will address one aspect of the question, namely, whether LMs' words
refer: that is, whether the outputs of LMs achieve "word-to-world" connections.
There is prima facie reason to think they do not since LMs do not interact with
the world in the way that ordinary language users do. Drawing on insights from
the externalist tradition in philosophy of language, we argue that appearances
are misleading and that there is good reason to think that LMs can refer.
- Abstract(参考訳): 言語モデル(LM)は言語と何をしますか?
全員が、(ほとんど)コヒーレントな文のシーケンスを作成することに同意する。
しかし、これらの文字列で何かを言っているのか、それとも単に説得力のある言語使用のシミュラクルでバブリングしているだけなのか?
これは曖昧な質問であり、正確化には多くの方法があります。
ここでは、lmsの単語が参照するかどうか、すなわち、lmsの出力が"word-to-world"接続を達成するかどうかという問題の一面に対処します。
lmsが通常の言語ユーザーのように世界と相互作用しないからではないと考えるのは、原始的な理由がある。
言語哲学における外部主義の伝統からの洞察を引いて、外観は誤解を招くものであり、lmsが参照できると考える正当な理由があると主張する。
関連論文リスト
- Hire a Linguist!: Learning Endangered Languages with In-Context
Linguistic Descriptions [52.95579788485411]
lingOLLMは、LLMが事前トレーニングでほとんど起こらない未知の言語を処理できるようにする、トレーニング不要のアプローチである。
GPT-4とMixtralの2つのモデル上にlingOLLMを実装し,その性能評価を行った。
GPT-4 の 0 から 10.5 BLEU への翻訳能力が 10 言語方向に向上することを示す。
論文 参考訳(メタデータ) (2024-02-28T03:44:01Z) - "Understanding AI": Semantic Grounding in Large Language Models [0.0]
LLMを含む生成モデルが自己教師型学習の鍵となるため、私たちは最近、AIの世代的転換を目撃しました。
セマンティック・グラウンディングの課題を評価するために,5つの方法論を区別し,議論する。
論文 参考訳(メタデータ) (2024-02-16T14:23:55Z) - Why LLMs Hallucinate, and How to Get (Evidential) Closure: Perceptual,
Intensional, and Extensional Learning for Faithful Natural Language
Generation [0.0]
LLMは、その出力がそれらが証拠を持つ主張と同義であることに制約されないため、幻覚的であることを示す。
次に, LLM を制約して, 明らかな閉包を満たす出力を生成する方法を示す。
論文 参考訳(メタデータ) (2023-10-23T20:35:52Z) - When Language Models Fall in Love: Animacy Processing in Transformer
Language Models [38.79717627047192]
我々は,トランスフォーマー言語モデル (LM) が,アニマシーが典型的である実体を提示するとき,人間のように振る舞うことを示す。
また、愛のピーナッツのような非典型的なアニメーターの物語を提示しても、LMは適応することを示した。
我々は、LMがアニマシーについて学べる限られた信号にもかかわらず、それらが実際に英語で利用可能な関連する語彙的意味ニュアンスに敏感である、と結論付けた。
論文 参考訳(メタデータ) (2023-10-23T14:57:52Z) - An Exploration of In-Context Learning for Speech Language Model [107.63817360836336]
インコンテキスト学習(ICL)は,大規模言語モデル(LLM)の活用において重要な役割を担っている。
本研究は,テキストの監督を伴わない音声によるICLの探索を初めて提案する。
論文 参考訳(メタデータ) (2023-10-19T05:31:45Z) - Language Models as Agent Models [42.37422271002712]
LMは、特定の狭義の意図的なコミュニケーションのモデルである、と私は主張する。
今日の非破壊的かつエラーを起こしやすいモデルでさえ、LMはきめ細かいコミュニケーション意図の表現を推論し、使用します。
論文 参考訳(メタデータ) (2022-12-03T20:18:16Z) - Extensible Prompts for Language Models on Zero-shot Language Style
Customization [89.1622516945109]
X-Promptは、自然言語(NL)を超えた大きな言語モデル(LLM)を指示する
新しい想像的単語を登録することで、LLMにNL単語で記述するのが難しい概念を理解するよう指示することができる。
これらの虚構語は、様々なプロンプトでNL語のように(再)使用できるように、分布外頑健であるように設計されている。
論文 参考訳(メタデータ) (2022-12-01T16:11:56Z) - Language Models of Code are Few-Shot Commonsense Learners [106.1531522893209]
自然言語入力が与えられた場合、目標はイベントや推論グラフなどのグラフを生成することだ。
既存のアプローチは、出力グラフをノードとエッジのフラットリストとしてシリアライズする。
コード生成タスクとして構造化コモンセンス推論タスクをフレーム化する場合、事前学習されたコードLMは自然言語のLMよりも構造化コモンセンス推論タスクの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-10-13T16:09:36Z) - Reusing a Pretrained Language Model on Languages with Limited Corpora
for Unsupervised NMT [129.99918589405675]
本稿では,オープンソース言語上でのみ事前訓練されたLMを再利用する効果的な手法を提案する。
モノリンガルLMは両言語で微調整され、UNMTモデルの初期化に使用される。
我々のアプローチであるRE-LMは、英語・マケドニア語(En-Mk)と英語・アルバニア語(En-Sq)の競合言語間事前学習モデル(XLM)より優れています。
論文 参考訳(メタデータ) (2020-09-16T11:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。