論文の概要: Talking About Large Language Models
- arxiv url: http://arxiv.org/abs/2212.03551v1
- Date: Wed, 7 Dec 2022 10:01:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 15:05:15.242050
- Title: Talking About Large Language Models
- Title(参考訳): 大規模言語モデルについて
- Authors: Murray Shanahan
- Abstract要約: より適応的な大きな言語モデルが増えればなるほど、人類同型への脆弱さが増す。
本稿は,LLMとその構成するシステムがどのように機能するかを思い出すために,繰り返し遡るプラクティスを提唱する。
科学的精度の向上は、人工知能に関する議論において、より哲学的なニュアンスを促進することを期待している。
- 参考スコア(独自算出の注目度): 7.005266019853958
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Thanks to rapid progress in artificial intelligence, we have entered an era
when technology and philosophy intersect in interesting ways. Sitting squarely
at the centre of this intersection are large language models (LLMs). The more
adept LLMs become at mimicking human language, the more vulnerable we become to
anthropomorphism, to seeing the systems in which they are embedded as more
human-like than they really are. This trend is amplified by the natural
tendency to use philosophically loaded terms, such as "knows", "believes", and
"thinks", when describing these systems. To mitigate this trend, this paper
advocates the practice of repeatedly stepping back to remind ourselves of how
LLMs, and the systems of which they form a part, actually work. The hope is
that increased scientific precision will encourage more philosophical nuance in
the discourse around artificial intelligence, both within the field and in the
public sphere.
- Abstract(参考訳): 人工知能の急速な進歩により、私たちはテクノロジーと哲学が興味深い方法で交わる時代に入った。
この交差点の中心に直立する位置は、大きな言語モデル(LLM)である。
LLMが人間の言語を模倣するほど、人類同型化の脆弱さは増していき、それらが実際により人間らしく埋め込まれたシステムを見るようになる。
この傾向は、これらのシステムを記述する際に「知識」や「信念」や「思考」といった哲学的に読み込まれた用語を使う自然な傾向によって増幅される。
この傾向を緩和するため,本論文では,LLMの仕組みや,それらが実際に機能するシステムについて,繰り返し遡るプラクティスを提唱する。
科学的精度の向上は、人工知能に関する議論において、分野内と公共の領域の両方において、より哲学的なニュアンスを促進することを期待している。
関連論文リスト
- Should We Fear Large Language Models? A Structural Analysis of the Human
Reasoning System for Elucidating LLM Capabilities and Risks Through the Lens
of Heidegger's Philosophy [0.0]
本研究では,Large Language Models(LLM)の能力とリスクについて検討する。
LLM内の単語関係の統計的パターンと、Martin Heidegger氏の概念である"ready-to-hand"と"present-at-hand"の間には、革新的な並列性がある。
以上の結果から, LLMには直接的説明推論と擬似論理推論の能力があるが, 真理的推論に乏しく, 創造的推論能力がないことが明らかとなった。
論文 参考訳(メタデータ) (2024-03-05T19:40:53Z) - LLMs and the Human Condition [0.0]
このモデルは、哲学、社会学、コンピュータ科学から、人間の意思決定に関する確立した3つの理論を統合する。
これは、多くの哲学者や、多くの現代のAI研究者によって取られた位置である「反応性システム」として一般的に考えられているものを記述している。
論文 参考訳(メタデータ) (2024-02-13T12:04:43Z) - AI for Mathematics: A Cognitive Science Perspective [86.02346372284292]
数学は人間によって開発された最も強力な概念体系の1つである。
AIの急速な進歩、特に大規模言語モデル(LLM)の進歩による推進により、そのようなシステム構築に対する新たな、広範な関心が生まれている。
論文 参考訳(メタデータ) (2023-10-19T02:00:31Z) - Large Language Models for Scientific Synthesis, Inference and
Explanation [56.41963802804953]
大規模言語モデルがどのように科学的合成、推論、説明を行うことができるかを示す。
我々は,この「知識」を科学的文献から合成することで,大きな言語モデルによって強化できることを示す。
このアプローチは、大きな言語モデルが機械学習システムの予測を説明することができるというさらなる利点を持っている。
論文 参考訳(メタデータ) (2023-10-12T02:17:59Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z) - Understanding Natural Language Understanding Systems. A Critical
Analysis [91.81211519327161]
自然言語理解システム(Natural Language Understanding (NLU) system)としても知られる usguillemotright(英語版) のようなギユモトレフトークを持つ機械の開発は、人工知能の聖杯(英語版) (AI) である。
しかし、Gillemottalking machineguillemotrightを構築することができるという信頼は、次世代のNLUシステムによってもたらされたものよりも強かった。
私たちは新しい時代の夜明けに、ついに砂利が我々に近づいたのか?
論文 参考訳(メタデータ) (2023-03-01T08:32:55Z) - Emergence of Machine Language: Towards Symbolic Intelligence with Neural
Networks [73.94290462239061]
本稿では、ニューラルネットワークを用いてシンボルとコネクショナリズムの原理を組み合わせることで、離散表現を導出することを提案する。
対話型環境とタスクを設計することにより、機械が自発的で柔軟でセマンティックな言語を生成できることを実証した。
論文 参考訳(メタデータ) (2022-01-14T14:54:58Z) - Word meaning in minds and machines [18.528929583956725]
我々は、現代のNLPシステムは人間の単語類似性のモデルとしてかなり成功したが、他の多くの点で不足していると主張している。
現在のモデルは、大きなコーパスのテキストベースのパターンに強く結びついており、人々が言葉を通して表現する欲求、目標、信念に弱く結びついている。
我々は、NLPシステムを基盤とするより有望なアプローチについて議論し、それらがより人間らしく概念的な言葉の意味の基盤でより成功していくと論じる。
論文 参考訳(メタデータ) (2020-08-04T18:45:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。