論文の概要: Cooperation After the Algorithm: Designing Human-AI Coexistence Beyond the Illusion of Collaboration
- arxiv url: http://arxiv.org/abs/2602.19629v1
- Date: Mon, 23 Feb 2026 09:17:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.749408
- Title: Cooperation After the Algorithm: Designing Human-AI Coexistence Beyond the Illusion of Collaboration
- Title(参考訳): アルゴリズム後の協力:コラボレーションのイリュージョンを超えて人間とAIの共存を設計する
- Authors: Tatia Codreanu,
- Abstract要約: 我々は、安定した人間-AI共存は、残余のリスクを分散できるガバナンス基盤に依存する制度的な成果であると主張する。
本論文は,人間-AIシステムを設計するための理論的基礎と実践的ツールキットを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generative artificial intelligence systems increasingly participate in research, law, education, media, and governance. Their fluent and adaptive outputs create an experience of collaboration. However, these systems do not bear responsibility, incur liability, or share stakes in downstream consequences. This structural asymmetry has already produced sanctions, professional errors, and governance failures in high-stakes contexts We argue that stable human-AI coexistence is an institutional achievement that depends on governance infrastructure capable of distributing residual risk. Drawing on institutional analysis and evolutionary cooperation theory, we introduce a formal inequality that specifies when reliance on AI yields positive expected cooperative value. The model makes explicit how governance conditions, system policy, and accountability regimes jointly determine whether cooperation is rational or structurally defective. From this formalization we derive a cooperation ecology framework with six design principles: reciprocity contracts, visible trust infrastructure, conditional cooperation modes, defection-mitigation mechanisms, narrative literacy against authority theatre, and an Earth-first sustainability constraint. We operationalize the framework through three policy artefacts: a Human-AI Cooperation Charter, a Defection Risk Register, and a Cooperation Readiness Audit. Together, these elements shift the unit of analysis from the user-AI dyad to the institutional environment that shapes incentives, signals, accountability, and repair. The paper provides a theoretical foundation and practical toolkit for designing human-AI systems that can sustain accountable, trustworthy cooperation over time.
- Abstract(参考訳): 生成的人工知能システムは、研究、法律、教育、メディア、ガバナンスにますます参加している。
流動的で適応的なアウトプットは、コラボレーションの経験を生み出します。
しかしながら、これらのシステムは、ダウンストリームの結果に対する責任や責任の欠如、あるいは株式の共有を負わない。
我々は、安定した人間-AI共存は、残留リスクを分散できるガバナンス基盤に依存する制度的な成果であると主張している。
制度分析と進化的協調理論に基づいて,AIに依存した場合の正の協調価値を示す形式的不平等を導入する。
このモデルは、ガバナンス条件、システムポリシー、説明責任体制が協調が合理的か構造的に欠陥があるかを共同で決定する方法を明確にする。
この形式化から、相互契約、可視信頼基盤、条件付き協調モード、欠陥緩和機構、権威劇場に対する物語リテラシー、地球ファーストサステナビリティ制約の6つの設計原則による協調生態学の枠組みを導出する。
我々は,人間-AI協力憲章,欠陥リスク登録,協力準備監査という3つの政策成果を通じて,この枠組みを運用する。
これらの要素は、分析の単位をユーザーAIダイアドからインセンティブ、信号、説明責任、修復を形作る制度環境へとシフトする。
本論文は,人間-AIシステムを設計するための理論的基礎と実践的ツールキットを提供する。
関連論文リスト
- The Social Responsibility Stack: A Control-Theoretic Architecture for Governing Socio-Technical AI [0.0]
本稿では,社会責任スタック(Social Responsibility Stack, SRS)を紹介する。
我々は、SRSが規範的目的を実行可能なエンジニアリングと運用制御にどのように変換するかを示す。
このフレームワークは倫理、制御理論、AIガバナンスを橋渡しし、説明責任、適応性、監査可能な社会技術AIシステムのための実践的な基盤を提供する。
論文 参考訳(メタデータ) (2025-12-18T18:42:16Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - From Firms to Computation: AI Governance and the Evolution of Institutions [0.0]
本稿は,多段階選択理論,Aoki の計算プロセスとしての企業観,Ostrom の設計原理の3つの枠組みを合成する。
我々は,AI関連のリスクに対処するアライメントメカニズムとして,選択を組織レベルで同時に運用するフレームワークを開発し,ゲーム理論アーキテクチャによる分散推論を実装し,オストロムスタイルのルールは進化する。
私たちは、組織層をまたいだ人間とAIの整合性を運用し、スケーラブルで適応的で包括的なAIシステムのガバナンスを可能にする一連の設計原則を提案して、結論付けました。
論文 参考訳(メタデータ) (2025-07-18T02:52:58Z) - Secondary Bounded Rationality: A Theory of How Algorithms Reproduce Structural Inequality in AI Hiring [0.174048653626208]
論文では、AIシステムは技術的・社会的制約を通じて人間の認知と構造的バイアスを継承し、増幅すると主張している。
アルゴリズムのプロセスが、エリート的信用権の特権化やネットワークのホモフィリーといった歴史的不平等を、明らかに有益な官僚的な結果にどのように変えるかを示す。
我々は、この自己強化不平等を打破するために、対物公正テスト、資本認識監査、規制介入を含む緩和戦略を提案する。
論文 参考訳(メタデータ) (2025-07-12T10:03:20Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Semantic Computing for Organizational Effectiveness: From Organization
Theory to Practice through Semantics-Based Modelling [0.0]
私たちのモデルの主な特徴は、推論可能な依存関係、説明可能な調整と協力のリスク、組織内の依存関係構造をどのように変更してリスクを軽減するかについての実行可能な洞察などです。
我々のアプローチは、既存の組織理論から有形で現実的な価値を導出する意味論の変革の可能性を強調します。
論文 参考訳(メタデータ) (2023-12-29T19:37:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。