論文の概要: Large Language Models and the Reverse Turing Test
- arxiv url: http://arxiv.org/abs/2207.14382v1
- Date: Thu, 28 Jul 2022 21:22:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-01 12:14:19.542532
- Title: Large Language Models and the Reverse Turing Test
- Title(参考訳): 大規模言語モデルと逆チューリングテスト
- Authors: Terrence Sejnowski
- Abstract要約: LLM(Large Language Models)は、言語モデルである。
これらは事前訓練された基礎モデルであり、様々な自然言語タスクに微調整を施すことができる。
LLMのインテリジェンスに見えるのは、実際にインタビュアーのインテリジェンスを反映したミラーかもしれない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Models (LLMs) have been transformative. They are pre-trained
foundational models that can be adapted with fine tuning to many different
natural language tasks, each of which previously would have required a separate
network model. This is one step closer to the extraordinary versatility of
human language. GPT-3 and more recently LaMDA can carry on dialogs with humans
on many topics after minimal priming with a few examples. However, there has
been a wide range of reactions on whether these LLMs understand what they are
saying or exhibit signs of intelligence. This high variance is exhibited in
three interviews with LLMs reaching wildly different conclusions. A new
possibility was uncovered that could explain this divergence. What appears to
be intelligence in LLMs may in fact be a mirror that reflects the intelligence
of the interviewer, a remarkable twist that could be considered a Reverse
Turing Test. If so, then by studying interviews we may be learning more about
the intelligence and beliefs of the interviewer than the intelligence of the
LLMs.
- Abstract(参考訳): 大規模言語モデル(llm)は変貌を遂げた。
それらは事前訓練された基礎モデルであり、様々な自然言語タスクに微調整を施すことができ、それぞれが以前別のネットワークモデルを必要としていた。
これは、人間の言語の並外れた汎用性に一歩近づいたものである。
GPT-3および近年のLaMDAは、いくつかの例で最小限のプライミングの後、多くのトピックで人間と対話することができる。
しかし、これらのLSMが自分たちの言っていることを理解しているか、あるいは知性の兆候を示すかについて、幅広い反応があった。
この高いばらつきは、LLMの3つのインタビューで、非常に異なる結論に達する。
この相違を説明する新たな可能性が明らかになった。
LLMのインテリジェンスに見えるのは、実際にインタビュアーのインテリジェンスを反映したミラーかもしれない。
もしそうなら、インタビューを勉強することで、llmの知性よりもインタビュアーの知性と信念について学んでいるかもしれません。
関連論文リスト
- Do LLMs write like humans? Variation in grammatical and rhetorical styles [0.7852714805965528]
大規模言語モデル(LLM)の修辞形式について検討する。
ダグラス・ビーバーの語彙的・文法的・修辞的特徴セットを用いて, LLMと人間との系統的差異を同定した。
このことは、高度な能力にもかかわらず、LLMは人間のスタイルに合うのに苦労していることを示している。
論文 参考訳(メタデータ) (2024-10-21T15:35:44Z) - LLMs' Understanding of Natural Language Revealed [0.0]
大規模言語モデル(LLM)は、大規模言語におけるボトムアップ、データ駆動のリバースエンジニアリングにおける大規模な実験の結果である。
私たちはLLMの言語理解能力、彼らが想定する砦をテストすることに重点を置きます。
論文 参考訳(メタデータ) (2024-07-29T01:21:11Z) - Evaluating the Elementary Multilingual Capabilities of Large Language Models with MultiQ [16.637598165238934]
大規模言語モデル(LLM)は、世界中の英語話者の大多数を含むすべての人にサービスを提供する必要がある。
近年の研究では、意図した用途に制限があるにもかかわらず、多くの言語でLSMを促すことが示されている。
我々は、27.4kのテスト質問に答える基本的なオープンエンド質問のための新しい銀標準ベンチマークであるMultiQを紹介する。
論文 参考訳(メタデータ) (2024-03-06T16:01:44Z) - Rethinking Interpretability in the Era of Large Language Models [76.1947554386879]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著な機能を示している。
自然言語で説明できる能力により、LLMは人間に与えられるパターンのスケールと複雑さを拡大することができる。
これらの新しい機能は、幻覚的な説明や膨大な計算コストなど、新しい課題を提起する。
論文 参考訳(メタデータ) (2024-01-30T17:38:54Z) - How Proficient Are Large Language Models in Formal Languages? An In-Depth Insight for Knowledge Base Question Answering [52.86931192259096]
知識ベース質問回答(KBQA)は,知識ベースにおける事実に基づいた自然言語質問への回答を目的としている。
最近の研究は、論理形式生成のための大規模言語モデル(LLM)の機能を活用して性能を向上させる。
論文 参考訳(メタデータ) (2024-01-11T09:27:50Z) - AlignedCoT: Prompting Large Language Models via Native-Speaking Demonstrations [52.43593893122206]
Alignedcotは、大規模言語モデルを呼び出すためのコンテキスト内学習技術である。
ゼロショットシナリオでは、一貫した正しいステップワイズプロンプトを達成する。
数学的推論とコモンセンス推論の実験を行う。
論文 参考訳(メタデータ) (2023-11-22T17:24:21Z) - Let Models Speak Ciphers: Multiagent Debate through Embeddings [84.20336971784495]
この問題を解決するためにCIPHER(Communicative Inter-Model Protocol Through Embedding Representation)を導入する。
自然言語から逸脱することで、CIPHERはモデルの重みを変更することなく、より広い範囲の情報を符号化する利点を提供する。
このことは、LLM間の通信における代替の"言語"としての埋め込みの優越性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-10-10T03:06:38Z) - Probing the Multi-turn Planning Capabilities of LLMs via 20 Question
Games [14.063311955315077]
大規模言語モデル(LLM)は、明らかに求められている質問に答えるのに効果的である。
不明瞭なクエリに直面した場合、予測不能に動作し、誤った出力を生成することができる。
このことは、曖昧さを効果的に解決するために明確化を問うことができる知的エージェントの開発の必要性を浮き彫りにする。
論文 参考訳(メタデータ) (2023-10-02T16:55:37Z) - Can Large Language Models Transform Computational Social Science? [79.62471267510963]
大規模言語モデル(LLM)は、(トレーニングデータなしで)ゼロショットで多くの言語処理タスクを実行することができる
この研究は、計算社会科学ツールとしてLLMを使用するためのロードマップを提供する。
論文 参考訳(メタデータ) (2023-04-12T17:33:28Z) - Event knowledge in large language models: the gap between the impossible
and the unlikely [46.540380831486125]
我々は,事前学習された大規模言語モデル (LLM) がイベント知識を持つことを示す。
彼らはほぼ常に、不可能な事象に対して高い確率を割り当てる。
しかし、おそらくは起こりそうもない出来事に対して、一貫性のない選好を示す。
論文 参考訳(メタデータ) (2022-12-02T23:43:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。