論文の概要: Still "Talking About Large Language Models": Some Clarifications
- arxiv url: http://arxiv.org/abs/2412.10291v1
- Date: Fri, 13 Dec 2024 17:21:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-16 15:04:25.043990
- Title: Still "Talking About Large Language Models": Some Clarifications
- Title(参考訳): いまだに"大規模言語モデルについて語る":いくつかの明確化
- Authors: Murray Shanahan,
- Abstract要約: 私の論文 “Talking About Large Language Models” は、かつては、大規模言語モデルに対する還元主義的な姿勢を提唱するものとして解釈されてきた。
この短い注記は、メタ物理ではなく語の使用(誤用)に関係した、より大きな哲学的プロジェクトという文脈で、この論文を描いている。
- 参考スコア(独自算出の注目度): 13.672268920902187
- License:
- Abstract: My paper "Talking About Large Language Models" has more than once been interpreted as advocating a reductionist stance towards large language models. But the paper was not intended that way, and I do not endorse such positions. This short note situates the paper in the context of a larger philosophical project that is concerned with the (mis)use of words rather than metaphysics, in the spirit of Wittgenstein's later writing.
- Abstract(参考訳): 私の論文 “Talking About Large Language Models” は、かつては、大規模言語モデルに対する還元主義的な姿勢を提唱するものとして解釈されてきた。
しかし、この論文はそのような意図はなく、私はそのような立場を支持していません。
この短い注記は、ウィトゲンシュタインの後の著作の精神において、メタ物理学よりも語の使用(誤用)に関係したより大きな哲学的プロジェクトという文脈でこの論文を描いている。
関連論文リスト
- Large Language Models are Biased Because They Are Large Language Models [7.156628542829618]
本稿では,大規模言語モデルの設計から生じる有害なバイアスは避けられない結果である,と読者に納得させようとする。
これは事実である範囲において、LLMによって駆動されるAIの深刻な再考なしに有害なバイアスの問題は適切に対処できないことを示唆している。
論文 参考訳(メタデータ) (2024-06-19T01:08:03Z) - Modelling Language [0.0]
本稿では,大規模言語モデルが言語科学モデルとして機能する上で重要な科学的役割を担っていることを論じる。
これは、大規模な言語モデルが科学モデルとしてどのように機能するかを示すために、科学哲学における最近の研究に基づいている。
論文 参考訳(メタデータ) (2024-04-15T08:40:01Z) - mALBERT: Is a Compact Multilingual BERT Model Still Worth It? [5.2116647104135305]
ALBERTのようなコンパクトモデルなど,これらのPLMよりも頑丈なモデルに焦点をあてる。
PLMは、SpokenやNatural LanguageUnderstandingといった自然言語処理タスク、分類、質問応答タスクにおいて、大きなブレークスルーを可能にします。
これらの事実を踏まえ、ウィキペディアデータを用いて事前訓練された多言語コンパクトALBERTモデルの最初のバージョンを無償で提供する。
論文 参考訳(メタデータ) (2024-03-27T08:25:28Z) - Formal Aspects of Language Modeling [74.16212987886013]
大規模言語モデルは最も一般的なNLP発明の1つとなっている。
これらのノートは、ETH Z "urich course on large language model" の理論的部分の伴奏である。
論文 参考訳(メタデータ) (2023-11-07T20:21:42Z) - Evaluating Large Language Models on Controlled Generation Tasks [92.64781370921486]
本稿では,異なる粒度を持つ文計画ベンチマークを含む,様々なベンチマークを広範囲に分析する。
大規模言語モデルと最先端の微調整された小型モデルを比較した後、大規模言語モデルが後方に落ちたり、比較されたり、より小型モデルの能力を超えたりしたスペクトルを示す。
論文 参考訳(メタデータ) (2023-10-23T03:48:24Z) - Symbolic and Language Agnostic Large Language Models [0.0]
我々は,大言語モデル(LLM)の相対的な成功は,記号的対準記号的議論の反映ではないと主張している。
ここでは, 記号的, 言語に依存しない, オントロジ的に根ざした大規模言語モデルによって, ボトムアップ戦略が成功していることを示唆する。
論文 参考訳(メタデータ) (2023-08-27T20:24:33Z) - Still no evidence for an effect of the proportion of non-native speakers
on language complexity -- A response to Kauhanen, Einhaus & Walkden (2023) [91.3755431537592]
Kauhanen, Einhaus & Walkden氏は、私の論文の1つで示された結果を批判している。
どちらの批判点も明確に述べられ、私の論文で分析されていることを示します。
論文 参考訳(メタデータ) (2023-04-29T09:58:32Z) - Beyond the limitations of any imaginable mechanism: large language
models and psycholinguistics [0.0]
大規模な言語モデルは、言語のためのモデルを提供する。
実践的な道具として有用であり、言語と思考の関係を再放送する基盤として、イラストレーター比較や哲学として有用である。
論文 参考訳(メタデータ) (2023-02-28T20:49:38Z) - Emergent Abilities of Large Language Models [172.08007363384218]
より小さなモデルには存在しないが、より大きなモデルには存在しない場合、創発する能力を考える。
このような出現の存在は、さらなるスケーリングが言語モデルの機能範囲をさらに拡大することを意味している。
論文 参考訳(メタデータ) (2022-06-15T17:32:01Z) - Testing the Ability of Language Models to Interpret Figurative Language [69.59943454934799]
比喩的・比喩的な言語は言論において一般的である。
現代の言語モデルが非リテラルなフレーズをどの程度解釈できるかについては、未解決の疑問が残る。
ウィノグラードスタイルの非文字言語理解タスクであるFig-QAを紹介する。
論文 参考訳(メタデータ) (2022-04-26T23:42:22Z) - Chain of Thought Prompting Elicits Reasoning in Large Language Models [56.811278668446825]
本稿では,コヒーレントな思考連鎖を生成する言語モデルについて考察する。
実験により、プロンプトによって思考の連鎖を誘導することで、十分な大きな言語モデルが推論タスクをよりよく実行できるようになることが示されている。
論文 参考訳(メタデータ) (2022-01-28T02:33:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。