論文の概要: LLMs and the Human Condition
- arxiv url: http://arxiv.org/abs/2402.08403v1
- Date: Tue, 13 Feb 2024 12:04:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 15:28:37.400323
- Title: LLMs and the Human Condition
- Title(参考訳): LLMとヒューマン・コンディション
- Authors: Peter Wallis
- Abstract要約: 本稿では,人間の意思決定の確立された3つの理論について述べる。
言語をアクションとして真剣に考えると、モデルが会話のユーザーインターフェイスに適用されます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper presents three established theories of human decision-making and
describes how they can be integrated to provide a model of purposive human
action. Taking seriously the idea of language as action the model is then
applied to the conversational user interfaces. Theory based AI research has had
a hard time recently and the aim here is to revitalise interest in
understanding what LLMs are actually doing other than running poorly understood
machine learning routines over all the data the relevant Big Tech company can
hoover up. When a raspberry pi computer for under 50USD is up to 400 times
faster than the first commercial Cray super computer~\cite{crayVpi}, Big Tech
can get really close to having an infinite number of monkeys typing at random
and producing text, some of which will make sense. By understanding where
ChatGPT's apparent intelligence comes from, perhaps we can perform the magic
with fewer resources and at the same time gain some understanding about our
relationship with our world.
- Abstract(参考訳): 本稿では、人間の意思決定に関する3つの確立された理論を提示し、それらがどのように統合されて人間の行動のモデルとなるかを説明する。
言語をアクションとして真剣に考えると、モデルが会話のユーザーインターフェイスに適用されます。
理論ベースのai研究は最近苦戦しており、ここでの目標は、llmが実際に何をしているのかを理解することに対する関心を復活させることであり、関連する大手テクノロジー企業が蓄積できるすべてのデータに対して、理解不足の機械学習ルーチンを実行すること以外にない。
50USD以下のラズベリーのパイコンピュータが、最初の商用Crayスーパーコンピュータの最大400倍高速になったとき、Big Techは、ランダムにタイプしてテキストを生成する無限のサルに近づき、そのいくつかは理にかなっているだろう。
ChatGPTの明らかなインテリジェンスがどこから来たのかを理解することで、リソースが少ないと同時に、私たちの世界との関係についてある程度の理解を得ることができます。
関連論文リスト
- A Perspective on Large Language Models, Intelligent Machines, and Knowledge Acquisition [0.6138671548064355]
大言語モデル(LLM)は「知識」を生成できることで知られている。
しかし、抽象概念と推論を理解するためのLLMと人間の能力の間には大きなギャップがある。
我々はこれらの問題を、人間の知識獲得とチューリングテストの哲学的な文脈で論じる。
論文 参考訳(メタデータ) (2024-08-13T03:25:49Z) - AI and Social Theory [0.0]
我々は、人工知能(AI)が意味するものを定義することから始まる、AI駆動型社会理論のプログラムをスケッチする。
そして、AIベースのモデルがデジタルデータの可用性を増大させ、予測力に基づいて異なる社会的理論の有効性をテストするためのモデルを構築します。
論文 参考訳(メタデータ) (2024-07-07T12:26:16Z) - Human-Modeling in Sequential Decision-Making: An Analysis through the Lens of Human-Aware AI [20.21053807133341]
私たちは、人間を意識したAIシステムを構成するものの説明を提供しようとしています。
人間を意識したAIはデザイン指向のパラダイムであり、人間と対話するかもしれないモデリングの必要性に焦点を当てている。
論文 参考訳(メタデータ) (2024-05-13T14:17:52Z) - Should We Fear Large Language Models? A Structural Analysis of the Human
Reasoning System for Elucidating LLM Capabilities and Risks Through the Lens
of Heidegger's Philosophy [0.0]
本研究では,Large Language Models(LLM)の能力とリスクについて検討する。
LLM内の単語関係の統計的パターンと、Martin Heidegger氏の概念である"ready-to-hand"と"present-at-hand"の間には、革新的な並列性がある。
以上の結果から, LLMには直接的説明推論と擬似論理推論の能力があるが, 真理的推論に乏しく, 創造的推論能力がないことが明らかとなった。
論文 参考訳(メタデータ) (2024-03-05T19:40:53Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - AI for Mathematics: A Cognitive Science Perspective [86.02346372284292]
数学は人間によって開発された最も強力な概念体系の1つである。
AIの急速な進歩、特に大規模言語モデル(LLM)の進歩による推進により、そのようなシステム構築に対する新たな、広範な関心が生まれている。
論文 参考訳(メタデータ) (2023-10-19T02:00:31Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - The Neuro-Symbolic Inverse Planning Engine (NIPE): Modeling
Probabilistic Social Inferences from Linguistic Inputs [50.32802502923367]
確率的目標推論領域における言語駆動の過程と社会的推論への影響について検討する。
本稿では,エージェントシナリオの言語入力から目標推定を行うニューロシンボリックモデルを提案する。
我々のモデルは人間の反応パターンと密に一致し、LLM単独の使用よりも人間の判断をより良く予測する。
論文 参考訳(メタデータ) (2023-06-25T19:38:01Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z) - Talking About Large Language Models [7.005266019853958]
より適応的な大きな言語モデルが増えればなるほど、人類同型への脆弱さが増す。
本稿は,LLMとその構成するシステムがどのように機能するかを思い出すために,繰り返し遡るプラクティスを提唱する。
科学的精度の向上は、人工知能に関する議論において、より哲学的なニュアンスを促進することを期待している。
論文 参考訳(メタデータ) (2022-12-07T10:01:44Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。