論文の概要: Could a Large Language Model be Conscious?
- arxiv url: http://arxiv.org/abs/2303.07103v1
- Date: Sat, 4 Mar 2023 19:14:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-19 11:58:51.776690
- Title: Could a Large Language Model be Conscious?
- Title(参考訳): 大きな言語モデルは意識できるのか?
- Authors: David J. Chalmers
- Abstract要約: 最近、大きな言語モデルが知覚的か意識的であるかという議論が広まっている。
意識科学の主流の仮定を考えると、現在のモデルには意識に重大な障害があることが示唆される。
結論として、現在の大規模言語モデルが意識的であるとは考えられませんが、そう遠くない未来において、大規模言語モデルの拡張や後継モデルが意識されている可能性については、真剣に考える必要があります。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has recently been widespread discussion of whether large language
models might be sentient or conscious. Should we take this idea seriously? I
will discuss the underlying issue and will break down the strongest reasons for
and against. I suggest that given mainstream assumptions in the science of
consciousness, there are significant obstacles to consciousness in current
models: for example, their lack of recurrent processing, a global workspace,
and unified agency. At the same time, it is quite possible that these obstacles
will be overcome in the next decade or so. I conclude that while it is somewhat
unlikely that current large language models are conscious, we should take
seriously the possibility that extensions and successors to large language
models may be conscious in the not-too-distant future.
- Abstract(参考訳): 最近、大きな言語モデルが知覚的か意識的であるかという議論が広まっている。
このアイデアを真剣に考えるべきか?
根底にある問題を議論し、最強の理由と反対の理由を断ち切る。
意識科学の主流の仮定を考えると、現在のモデルでは意識に重大な障害があることが示唆される。
同時に、これらの障害が今後10年ほどで克服される可能性は極めて高い。
結論として、現在の大きな言語モデルが意識的であるとは考えられませんが、そう遠くない未来において、大きな言語モデルの拡張や後継が意識されている可能性について真剣に考える必要があります。
関連論文リスト
- Perceptions of Linguistic Uncertainty by Language Models and Humans [26.69714008538173]
言語モデルが不確実性の言語表現を数値応答にどうマッピングするかを検討する。
10モデル中7モデルで不確実性表現を確率的応答に人間的な方法でマッピングできることが判明した。
この感度は、言語モデルは以前の知識に基づいてバイアスの影響を受けやすいことを示している。
論文 参考訳(メタデータ) (2024-07-22T17:26:12Z) - Large Language Models are Biased Because They Are Large Language Models [7.156628542829618]
本稿では,大規模言語モデルの設計から生じる有害なバイアスは避けられない結果である,と読者に納得させようとする。
これは事実である範囲において、LLMによって駆動されるAIの深刻な再考なしに有害なバイアスの問題は適切に対処できないことを示唆している。
論文 参考訳(メタデータ) (2024-06-19T01:08:03Z) - Large language models and linguistic intentionality [0.0]
代わりに、言語モデルが言語内容の最高のメタセマンティック理論によって与えられる基準を満たすかどうかを検討するべきだと論じる。
LLMが精神的な意図性のために妥当な条件を満たせなかったことが、アウトプットを意味のないものにしていると考えるのは間違いだと私は主張する。
論文 参考訳(メタデータ) (2024-04-15T08:37:26Z) - Evaluating Large Language Models on Controlled Generation Tasks [92.64781370921486]
本稿では,異なる粒度を持つ文計画ベンチマークを含む,様々なベンチマークを広範囲に分析する。
大規模言語モデルと最先端の微調整された小型モデルを比較した後、大規模言語モデルが後方に落ちたり、比較されたり、より小型モデルの能力を超えたりしたスペクトルを示す。
論文 参考訳(メタデータ) (2023-10-23T03:48:24Z) - Beyond the limitations of any imaginable mechanism: large language
models and psycholinguistics [0.0]
大規模な言語モデルは、言語のためのモデルを提供する。
実践的な道具として有用であり、言語と思考の関係を再放送する基盤として、イラストレーター比較や哲学として有用である。
論文 参考訳(メタデータ) (2023-02-28T20:49:38Z) - Language Models are Multilingual Chain-of-Thought Reasoners [83.37148309771378]
本稿では,250の小学校数学問題を10の類型的多言語に手動で翻訳することで,多言語学級数学のベンチマークを導入する。
MGSM問題をチェーン・オブ・ソートにより解く能力は,モデルスケールの増大とともに出現する。
言語モデルの多言語推論能力は他のタスクにも及んでいることを示す。
論文 参考訳(メタデータ) (2022-10-06T17:03:34Z) - Emergent Abilities of Large Language Models [172.08007363384218]
より小さなモデルには存在しないが、より大きなモデルには存在しない場合、創発する能力を考える。
このような出現の存在は、さらなるスケーリングが言語モデルの機能範囲をさらに拡大することを意味している。
論文 参考訳(メタデータ) (2022-06-15T17:32:01Z) - Do Multilingual Language Models Capture Differing Moral Norms? [71.52261949766101]
大量多言語文表現は、未処理データの大規模なコーパスに基づいて訓練される。
これは、高資源言語からの道徳的判断を含む文化的価値をモデルが把握する原因となる可能性がある。
特定の言語におけるデータ不足は、ランダムで潜在的に有害な信念を発達させる可能性がある。
論文 参考訳(メタデータ) (2022-03-18T12:26:37Z) - Chain of Thought Prompting Elicits Reasoning in Large Language Models [56.811278668446825]
本稿では,コヒーレントな思考連鎖を生成する言語モデルについて考察する。
実験により、プロンプトによって思考の連鎖を誘導することで、十分な大きな言語モデルが推論タスクをよりよく実行できるようになることが示されている。
論文 参考訳(メタデータ) (2022-01-28T02:33:07Z) - Limits of Detecting Text Generated by Large-Scale Language Models [65.46403462928319]
誤情報キャンペーンで使用される可能性があるため、長く一貫性のあるテキストを生成できる大規模な言語モデルが危険であると考える者もいる。
ここでは、仮説テスト問題として大規模言語モデル出力検出を定式化し、テキストを真あるいは生成されたものと分類する。
論文 参考訳(メタデータ) (2020-02-09T19:53:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。