論文の概要: Social AI and The Equation of Wittgenstein's Language User With Calvino's Literature Machine
- arxiv url: http://arxiv.org/abs/2407.09493v1
- Date: Thu, 23 May 2024 09:51:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 13:38:25.581721
- Title: Social AI and The Equation of Wittgenstein's Language User With Calvino's Literature Machine
- Title(参考訳): ソーシャルAIとWittgensteinの言語使用者の方程式 : Calvinoの文学機械を用いて
- Authors: W. J. T. Mollema,
- Abstract要約: 大規模言語モデル(LLM)に基づいたチャットボットのようなAIシステムに心理的述語を登録するのは賢明か?
ソーシャルAIは完全な言語ユーザではなく、むしろItalo Calvinoの文学マシンに似ている。
致命的な計算の枠組みは、社会AIが物語のファクソン・ド・パラーに必要な基本的オートポエシスを欠いていることを示すために用いられる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Is it sensical to ascribe psychological predicates to AI systems like chatbots based on large language models (LLMs)? People have intuitively started ascribing emotions or consciousness to social AI ('affective artificial agents'), with consequences that range from love to suicide. The philosophical question of whether such ascriptions are warranted is thus very relevant. This paper advances the argument that LLMs instantiate language users in Ludwig Wittgenstein's sense but that ascribing psychological predicates to these systems remains a functionalist temptation. Social AIs are not full-blown language users, but rather more like Italo Calvino's literature machines. The ideas of LLMs as Wittgensteinian language users and Calvino's literature-producing writing machine are combined. This sheds light on the misguided functionalist temptation inherent in moving from equating the two to the ascription of psychological predicates to social AI. Finally, the framework of mortal computation is used to show that social AIs lack the basic autopoiesis needed for narrative fa\c{c}ons de parler and their role in the sensemaking of human (inter)action. Such psychological predicate ascriptions could make sense: the transition 'from quantity to quality' can take place, but its route lies somewhere between life and death, not between affective artifacts and emotion approximation by literature machines.
- Abstract(参考訳): 大規模言語モデル(LLM)に基づいたチャットボットのようなAIシステムに心理的述語を登録するのは賢明か?
人々は直感的に感情や意識を社会的AI(「影響のある人工エージェント」)に説明し始めており、その結果は愛から自殺まで様々である。
このような記述が保証されているかどうかという哲学的な問題は非常に関係がある。
本稿では, LLMはルートヴィヒ・ヴィトゲンシュタインの意味で言語ユーザをインスタンス化するが, これらのシステムに対する心理的述語を記述することは, 機能主義的誘惑のままである,という議論を推し進める。
ソーシャルAIは完全な言語ユーザではなく、むしろItalo Calvinoの文学マシンに似ている。
ウィトゲンシュタイン語使用者やカルヴィノの文学作品作成機械としてのLLMの考え方が組み合わさっている。
これは、両者を同一視することから、心理学的述語の記述から社会AIへの移行に固有の、誤った機能主義的誘惑に光を当てる。
最後に、死の計算の枠組みは、社会AIが物語のfa\c{c}ons de parlerに必要な基本的なオートポエシスを欠いていること、そして人間の(相互作用)行動の感覚形成におけるそれらの役割を示すために用いられる。
このような心理的述語の記述は理にかなっている:「量から質への」遷移は起こりうるが、その経路は文学機械による感情的な人工物と感情の近似の間ではなく、生と死の間にある。
関連論文リスト
- The Good, The Bad, and Why: Unveiling Emotions in Generative AI [73.94035652867618]
EmotionPromptはAIモデルの性能を向上し、EmotionAttackはそれを妨げうることを示す。
EmotionDecodeによると、AIモデルは人間の脳内のドーパミンのメカニズムに似た感情的な刺激を理解することができる。
論文 参考訳(メタデータ) (2023-12-18T11:19:45Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - The Neuro-Symbolic Inverse Planning Engine (NIPE): Modeling
Probabilistic Social Inferences from Linguistic Inputs [50.32802502923367]
確率的目標推論領域における言語駆動の過程と社会的推論への影響について検討する。
本稿では,エージェントシナリオの言語入力から目標推定を行うニューロシンボリックモデルを提案する。
我々のモデルは人間の反応パターンと密に一致し、LLM単独の使用よりも人間の判断をより良く予測する。
論文 参考訳(メタデータ) (2023-06-25T19:38:01Z) - Understanding Natural Language Understanding Systems. A Critical
Analysis [91.81211519327161]
自然言語理解システム(Natural Language Understanding (NLU) system)としても知られる usguillemotright(英語版) のようなギユモトレフトークを持つ機械の開発は、人工知能の聖杯(英語版) (AI) である。
しかし、Gillemottalking machineguillemotrightを構築することができるという信頼は、次世代のNLUシステムによってもたらされたものよりも強かった。
私たちは新しい時代の夜明けに、ついに砂利が我々に近づいたのか?
論文 参考訳(メタデータ) (2023-03-01T08:32:55Z) - Human Heuristics for AI-Generated Language Are Flawed [8.465228064780744]
我々は,最も個人的かつ連続的な言語である動詞の自己表現が,AIによって生成されたかを検討した。
我々は,これらの単語がAI生成言語の人間の判断を予測可能で操作可能であることを実験的に実証した。
我々は、AIアクセントのようなソリューションについて議論し、AIによって生成された言語の誤認の可能性を減らす。
論文 参考訳(メタデータ) (2022-06-15T03:18:56Z) - An Enactivist account of Mind Reading in Natural Language Understanding [0.0]
我々は、古典的なAIハード問題に対して、急進的行動主義的議題の理解を適用する。
チューリングテストはコンピュータが言語を使えると仮定し、その課題は人間の知性を偽造することであった。
この論文は、自然言語の理解が人間間でどのように機能するかを再検討する。
論文 参考訳(メタデータ) (2021-11-11T12:46:00Z) - Symbols as a Lingua Franca for Bridging Human-AI Chasm for Explainable
and Advisable AI Systems [21.314210696069495]
我々は、人間-AI相互作用における(人間-理解可能な)シンボルの必要性は、非常に説得力があるように思える。
特に、人間は明示的な(象徴的な)知識とアドバイスを提供することに興味があり、機械の説明を期待する。
これだけでも、AIシステムは少なくとも象徴的な言葉でI/Oを行う必要がある。
論文 参考訳(メタデータ) (2021-09-21T01:30:06Z) - Crossing the Tepper Line: An Emerging Ontology for Describing the
Dynamic Sociality of Embodied AI [0.9176056742068814]
AIがいかに「社会的に具現化されたAI」として現れるかを示す。
私たちはこれを、人間によって社会的かつエージェント的と認識された場合、対話的なコンテキスト内でaiを「循環的に」実施する状態と定義します。
論文 参考訳(メタデータ) (2021-03-15T00:45:44Z) - Towards Socially Intelligent Agents with Mental State Transition and
Human Utility [97.01430011496576]
対話エージェントに精神状態と実用性モデルを取り入れることを提案する。
ハイブリッド精神状態は、対話とイベント観察の両方から情報を抽出する。
ユーティリティモデルは、クラウドソースのソーシャルコモンセンスデータセットから人間の好みを学習するランキングモデルである。
論文 参考訳(メタデータ) (2021-03-12T00:06:51Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z) - Generating Emotionally Aligned Responses in Dialogues using Affect
Control Theory [15.848210524718219]
感情制御理論(Affect Control Theory、ACT)は、人間と人間の相互作用に対する感情の社会的・数学的モデルである。
本研究では、ACTが感情認識型神経会話エージェントの開発にどのように役立つかを検討する。
論文 参考訳(メタデータ) (2020-03-07T19:31:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。