論文の概要: A Pragmatic View of AI Personhood
- arxiv url: http://arxiv.org/abs/2510.26396v1
- Date: Thu, 30 Oct 2025 11:36:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.787258
- Title: A Pragmatic View of AI Personhood
- Title(参考訳): AIパーソナリティの実践的視点
- Authors: Joel Z. Leibo, Alexander Sasha Vezhnevets, William A. Cunningham, Stanley M. Bileschi,
- Abstract要約: エージェント人工知能は、新しいタイプの人格の「カンブリア爆発」を引き起こすように設定されている。
本稿では,この多角化をナビゲートするための実用的枠組みを提案する。
我々は、この伝統的なバンドルは、異なるコンテキストに対する好ましくないソリューションを作成することができると論じる。
- 参考スコア(独自算出の注目度): 45.069027101429704
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The emergence of agentic Artificial Intelligence (AI) is set to trigger a "Cambrian explosion" of new kinds of personhood. This paper proposes a pragmatic framework for navigating this diversification by treating personhood not as a metaphysical property to be discovered, but as a flexible bundle of obligations (rights and responsibilities) that societies confer upon entities for a variety of reasons, especially to solve concrete governance problems. We argue that this traditional bundle can be unbundled, creating bespoke solutions for different contexts. This will allow for the creation of practical tools -- such as facilitating AI contracting by creating a target "individual" that can be sanctioned -- without needing to resolve intractable debates about an AI's consciousness or rationality. We explore how individuals fit in to social roles and discuss the use of decentralized digital identity technology, examining both "personhood as a problem", where design choices can create "dark patterns" that exploit human social heuristics, and "personhood as a solution", where conferring a bundle of obligations is necessary to ensure accountability or prevent conflict. By rejecting foundationalist quests for a single, essential definition of personhood, this paper offers a more pragmatic and flexible way to think about integrating AI agents into our society.
- Abstract(参考訳): エージェント人工知能(AI)の出現は、新しいタイプの人格の「カンブリア爆発」を引き起こすように設定されている。
本稿では, 社会が様々な理由, 特に具体的なガバナンス問題を解決するために, 人格をメタ物理的財産として扱うのではなく, 社会が様々な理由で実体を尊重する柔軟な義務(権利と責任)の束として扱うことによって, この多様化を促進するための実践的な枠組みを提案する。
我々は、この伝統的なバンドルは、異なるコンテキストに対する好ましくないソリューションを作成することができると論じる。
これにより、AIの意識や合理性に関する難解な議論を解決する必要がなくなることなく、AI契約の促進など、現実的なツール - を作成できるようになる。
我々は、個人が社会的役割にどのように適合するかを探求し、分散化されたデジタルアイデンティティ技術の使用について議論し、デザイン選択が人間の社会的ヒューリスティックを生かした「暗黒パターン」を創り出す「問題としての個人」と、説明責任の確保や紛争の防止のために義務の結束が不可欠である「解決としての個人」の両方を考察する。
基礎主義者による一人の人格の定義を拒絶することによって、この論文は、私たちの社会にAIエージェントを統合することを考えるための、より実践的で柔軟な方法を提供する。
関連論文リスト
- FAIRTOPIA: Envisioning Multi-Agent Guardianship for Disrupting Unfair AI Pipelines [1.556153237434314]
AIモデルは積極的な意思決定者となり、しばしば人間の監督なしに行動している。
エージェントは彼らの環境から学ぶので、公正な保護者としてエージェントを想定する。
本稿では,マルチロールエージェントをエンドツーエンド(人間からAI)のシナジースキームに組み込むフェアネス・バイ・デザイン手法を提案する。
論文 参考訳(メタデータ) (2025-06-10T17:02:43Z) - Exploring Societal Concerns and Perceptions of AI: A Thematic Analysis through the Lens of Problem-Seeking [0.0]
本研究では,AIとは対照的に人間の知能の特徴を明らかにするために,問題解決から問題解決を区別する新しい概念的枠組みを提案する。
このフレームワークは、AIは効率と最適化において優れているが、接地と人間の認識に固有のエンボディメントの柔軟性から派生したオリエンテーションは欠如している、と強調している。
論文 参考訳(メタデータ) (2025-05-29T18:24:34Z) - We Are All Creators: Generative AI, Collective Knowledge, and the Path Towards Human-AI Synergy [1.2499537119440245]
生成的AIは、人間の独特性という伝統的な概念に深刻な課題を呈している。
ニューラルネットワークベースのファンデーションモデルにより、これらのシステムは顕著なコンテンツ生成能力を示す。
本稿では、生成AIは、知性と創造性の代替形態であると主張している。
論文 参考訳(メタデータ) (2025-04-10T17:50:17Z) - Stochastic, Dynamic, Fluid Autonomy in Agentic AI: Implications for Authorship, Inventorship, and Liability [0.2209921757303168]
エージェントAIシステムは、暗黙の学習を通じて戦略を適応し、自律的に目標を追求する。
人間と機械の貢献は、相互に絡み合った創造的なプロセスに不可避的に絡まってしまう。
法律と政策の枠組みは、人間と機械の貢献を機能的に同等に扱う必要があるかもしれないと我々は主張する。
論文 参考訳(メタデータ) (2025-04-05T04:44:59Z) - AI Automatons: AI Systems Intended to Imitate Humans [54.19152688545896]
人々の行動、仕事、能力、類似性、または人間性を模倣するように設計されたAIシステムが増加している。
このようなAIシステムの研究、設計、展開、可用性は、幅広い法的、倫理的、その他の社会的影響に対する懸念を喚起している。
論文 参考訳(メタデータ) (2025-03-04T03:55:38Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
我々は人間の知恵について知られているものを調べ、そのAIのビジョンをスケッチする。
AIシステムは特にメタ認知に苦しむ。
スマートAIのベンチマーク、トレーニング、実装について論じる。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Combining Theory of Mind and Kindness for Self-Supervised Human-AI Alignment [0.0]
現在のAIモデルは、安全よりもタスク最適化を優先しており、意図しない害のリスクにつながっている。
本稿では,これらの諸問題に対処し,競合する目標の整合化を支援することを目的とした,人間に触発された新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-21T22:04:44Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。