論文の概要: The Intercepted Self: How Generative AI Challenges the Dynamics of the Relational Self
- arxiv url: http://arxiv.org/abs/2509.13391v1
- Date: Tue, 16 Sep 2025 14:07:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.587651
- Title: The Intercepted Self: How Generative AI Challenges the Dynamics of the Relational Self
- Title(参考訳): 解釈された自己: 生成的AIが関係的自己のダイナミクスにどのように挑戦するか
- Authors: Sandrine R. Schiller, Camilo Miguel Signorelli, Filippos Stamatiou,
- Abstract要約: ジェネレーティブAIは、テクノロジー、他の人、そして自分自身との対話方法を変えつつある。
MicrosoftとGemini、そして予想されるAppleのインテリジェンスはまだ、私たちの行動のプロンプトを待っている。
- 参考スコア(独自算出の注目度): 0.5574793555270349
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI is changing our way of interacting with technology, others, and ourselves. Systems such as Microsoft copilot, Gemini and the expected Apple intelligence still awaits our prompt for action. Yet, it is likely that AI assistant systems will only become better at predicting our behaviour and acting on our behalf. Imagine new generations of generative and predictive AI deciding what you might like best at a new restaurant, picking an outfit that increases your chances on your date with a partner also chosen by the same or a similar system. Far from a science fiction scenario, the goal of several research programs is to build systems capable of assisting us in exactly this manner. The prospect urges us to rethink human-technology relations, but it also invites us to question how such systems might change the way we relate to ourselves. Building on our conception of the relational self, we question the possible effects of generative AI with respect to what we call the sphere of externalised output, the contextual sphere and the sphere of self-relating. In this paper, we attempt to deepen the existential considerations accompanying the AI revolution by outlining how generative AI enables the fulfilment of tasks and also increasingly anticipates, i.e. intercepts, our initiatives in these different spheres.
- Abstract(参考訳): ジェネレーティブAIは、テクノロジー、他の人、そして自分自身との対話方法を変えつつある。
Microsoftのパトリオット、Gemini、そして予想されるAppleのインテリジェンスなどは、まだ私たちの行動のプロンプトを待っている。
しかし、AIアシスタントシステムは、私たちの振る舞いを予測し、私たちの代わりに振る舞うことがより良くなる可能性が高い。
新しいレストランで何が一番良いかを決める、生成的かつ予測的AIの新世代を想像してみてほしい。
SFのシナリオとは程遠いが、いくつかの研究プログラムの目的は、私たちを正確に支援できるシステムを構築することだ。
この展望は、人間とテクノロジーの関係を再考することを促しますが、そのようなシステムが私たち自身とどのように関係するかについても疑問を投げかけます。
リレーショナル・セルフの概念に基づいて、外部出力の球体、文脈球体、自己関連球体について、生成AIの可能性に疑問を呈する。
本稿では,AI革命に伴う存在意識の深化を,生成的AIがタスクの充足を可能にするのかを概説するとともに,これらの異なる領域におけるインタセプト,すなわち我々のイニシアチブをますます期待している。
関連論文リスト
- Neurodivergent Influenceability as a Contingent Solution to the AI Alignment Problem [1.3905735045377272]
AIアライメント問題は、人工知能(AI)システムが人間の価値観に従って行動することを保証することに重点を置いている。
狭義のAIからAI(Artificial General Intelligence, AGI)やスーパーインテリジェンス(Superintelligence, 超知能)への進化に伴い、制御に対する恐怖と現実的なリスクがエスカレートした。
ここでは、避けられないAIのミスアライメントを受け入れることが、競合するエージェントの動的なエコシステムを育むための緊急戦略であるかどうかを検討する。
論文 参考訳(メタデータ) (2025-05-05T11:33:18Z) - AI Automatons: AI Systems Intended to Imitate Humans [54.19152688545896]
人々の行動、仕事、能力、類似性、または人間性を模倣するように設計されたAIシステムが増加している。
このようなAIシステムの研究、設計、展開、可用性は、幅広い法的、倫理的、その他の社会的影響に対する懸念を喚起している。
論文 参考訳(メタデータ) (2025-03-04T03:55:38Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
我々は人間の知恵について知られているものを調べ、そのAIのビジョンをスケッチする。
AIシステムは特にメタ認知に苦しむ。
スマートAIのベンチマーク、トレーニング、実装について論じる。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - The Rise and Fall(?) of Software Engineering [3.89270408835787]
ソフトウェア工学へのAIのスムーズな統合に不可欠な重要な要素を概説することを目指している。
まず、SEとAIの進化について簡単に説明する。その後、AI駆動の自動化と人間のイノベーションの間の複雑な相互作用を掘り下げる。
論文 参考訳(メタデータ) (2024-06-14T15:50:24Z) - Frontier AI Ethics: Anticipating and Evaluating the Societal Impacts of Language Model Agents [0.0]
一部の者は、すでに広くデプロイされているAIシステムのよく知られた病理を複製したとして、ジェネレーティブAIシステムを批判している。
私はこれらの特定のシステムを区別する点に注意を払っています。
私は「言語モデルエージェント」の略奪的展望がもたらす潜在的社会的影響と規範的疑問について考察する
論文 参考訳(メタデータ) (2024-04-10T05:34:07Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - On the Influence of Explainable AI on Automation Bias [0.0]
我々は、説明可能なAI(XAI)によって自動化バイアスに影響を与える可能性に光を当てることを目指している。
ホテルのレビュー分類に関するオンライン実験を行い、最初の結果について議論する。
論文 参考訳(メタデータ) (2022-04-19T12:54:23Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The MineRL BASALT Competition on Learning from Human Feedback [58.17897225617566]
MineRL BASALTコンペティションは、この重要な種類の技術の研究を促進することを目的としている。
Minecraftでは、ハードコードされた報酬関数を書くのが難しいと期待する4つのタスクのスイートを設計しています。
これら4つのタスクのそれぞれについて、人間のデモのデータセットを提供するとともに、模擬学習ベースラインを提供する。
論文 参考訳(メタデータ) (2021-07-05T12:18:17Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。