論文の概要: Irresponsible Counselors: Large Language Models and the Loneliness of Modern Humans
- arxiv url: http://arxiv.org/abs/2602.21653v1
- Date: Wed, 25 Feb 2026 07:29:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.745555
- Title: Irresponsible Counselors: Large Language Models and the Loneliness of Modern Humans
- Title(参考訳): 無責任なカウンセラー:大規模言語モデルと現代人の孤独
- Authors: Abas Bertina, Sara Shakeri,
- Abstract要約: 大規模言語モデル(LLM)は、日常的、さらには人間の意思決定において、周辺補助ツールから常に仲間へと急速に移行してきた。
本稿は,技術アーキテクチャとLLMの社会的地位の組み合わせが,対象のない新たなアドバイザリ親密性を生み出すことを主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have rapidly shifted from peripheral assistive tools to constant companions in everyday and even high stakes human decision making. Many users now consult these models about health, intimate relationships, finance, education, and identity, because LLMs are, in practice, multi domain, inexpensive, always available, and seemingly nonjudgmental. At the same time, from a technical perspective these models rely on transformer architectures, exhibit highly unpredictable behavior in detail, and are fundamentally stateless; conceptually, they lack any real subjectivity, intention, or responsibility. This article argues that the combination of this technical architecture with the social position of LLMs as multis pecialist counselors in an age of human loneliness produces a new kind of advisory intimacy without a subject. In this new relation, model outputs are experienced as if they contained deep understanding, neutrality, emotional support, and user level control, while at the deeper level there is no human agent who is straightforwardly responsible or answerable. By reviewing dominant strands of AI ethics critique, we show that focusing only on developer liability, data bias, or emotional attachment to chatbots is insufficient to capture this configuration. We then explore the ethical and political implications of this advisory intimacy without a subject for policy-making, for justice in access to counseling, and for how we understand loneliness in the contemporary world.
- Abstract(参考訳): 大規模言語モデル(LLM)は、日常的、さらには人間の意思決定において、周辺補助ツールから常に仲間へと急速に移行してきた。
多くのユーザーは、健康、親密な関係、金融、教育、アイデンティティについてこれらのモデルを参考にしている。
同時に、技術的な観点からは、これらのモデルはトランスフォーマーアーキテクチャに依存し、非常に予測不可能な振る舞いを詳細に表現し、基本的にはステートレスである。
本稿は、この技術アーキテクチャとLLMの社会的地位を人間孤独の時代におけるマルチスペシアリストカウンセラーとして組み合わせることで、対象のない新たなアドバイザリ親密性を生み出すことを主張する。
この新たな関係において、モデルアウトプットは、深い理解、中立性、感情的サポート、ユーザレベルのコントロールを含むかのように経験される。
AI倫理的批判の主流をレビューすることによって、開発者の責任、データバイアス、あるいはチャットボットへの感情的なアタッチメントにのみ注目することは、この構成を捉えるには不十分であることが示される。
次に、この助言的親密さの倫理的・政治的意味について、政策決定、カウンセリングに対する正義、そして現代世界の孤独をいかに理解するかを論じる。
関連論文リスト
- PersonaFuse: A Personality Activation-Driven Framework for Enhancing Human-LLM Interactions [14.497181581363288]
PersonaFuseは、大規模言語モデルが異なるパーソナリティを適応し表現できるようにする新しいフレームワークである。
テストでは、PersonaFuseは、社会的感情知性の多次元にわたるベースラインモデルを大幅に上回っている。
PersonaFuseは、下流の人間中心のアプリケーションでも一貫した改善を提供する。
論文 参考訳(メタデータ) (2025-09-09T03:39:28Z) - Modeling Human Responses to Multimodal AI Content [10.65875439980452]
MhAIMデータセットには154,552のオンラインポストが含まれている(うち111,153がAI生成)
私たちの人間による研究は、投稿にテキストとビジュアルの両方が含まれている場合、人々はAIコンテンツを特定するのがより優れていることを示している。
マルチモーダル情報に予測応答を組み込むことにより,ユーザの問い合わせに応答するエージェントシステムであるT-Lensを提案する。
論文 参考訳(メタデータ) (2025-08-14T15:55:19Z) - Measurement of LLM's Philosophies of Human Nature [113.47929131143766]
大規模言語モデル(LLM)を対象とする標準化された心理尺度を設計する。
現在のLSMは、人間に対する信頼の欠如を示す。
本稿では,LLMが継続的に価値体系を最適化できるメンタルループ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-03T06:22:19Z) - The Superalignment of Superhuman Intelligence with Large Language Models [63.96120398355404]
我々は,この疑問に答えるために,学習の観点からスーパーアライメントの概念について議論する。
スーパーアライメントにおけるいくつかの重要な研究課題、すなわち、弱いから強い一般化、スケーラブルな監視、評価に焦点を当てる。
本稿では,学習者モデルの弱点を露呈しようとする敵対的クエリを生成する攻撃者,最小限の人間専門家とともに,批判モデルによって生成されたスケーラブルなフィードバックから学習することで自己を洗練させる学習者,与えられた質問応答対に対する批判や説明を生成する批判者,そして批判によって学習者を改善することを目的とした,3つのモジュールからなるスーパーアライメントの概念的枠組みを提案する。
論文 参考訳(メタデータ) (2024-12-15T10:34:06Z) - A Moral Imperative: The Need for Continual Superalignment of Large Language Models [1.0499611180329806]
スーパーアライメント(Superalignment)は、超知能AIシステムが人間の価値観や目標に応じて行動することを確実にする理論フレームワークである。
本稿では,AIシステム,特に大規模言語モデル(LLM)における生涯的スーパーアライメントの実現に関わる課題について検討する。
論文 参考訳(メタデータ) (2024-03-13T05:44:50Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Voluminous yet Vacuous? Semantic Capital in an Age of Large Language
Models [0.0]
大きな言語モデル(LLM)は、自然言語処理の領域において変換力として出現し、人間のようなテキストを生成する力を持つ。
本稿では、これらのモデルの進化、能力、限界について考察し、それらが引き起こす倫理的懸念を強調した。
論文 参考訳(メタデータ) (2023-05-29T09:26:28Z) - Principle-Driven Self-Alignment of Language Models from Scratch with
Minimal Human Supervision [84.31474052176343]
ChatGPTのような最近のAIアシスタントエージェントは、人間のアノテーションと人間のフィードバックからの強化学習を教師付き微調整(SFT)に頼り、アウトプットを人間の意図に合わせる。
この依存は、人間の監督を得るために高いコストがかかるため、AIアシスタントエージェントの真の可能性を大幅に制限することができる。
本稿では,AIエージェントの自己調整と人間監督の最小化のために,原則駆動推論とLLMの生成能力を組み合わせたSELF-ALIGNという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-04T17:59:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。