論文の概要: Incentive Compatibility for AI Alignment in Sociotechnical Systems:
Positions and Prospects
- arxiv url: http://arxiv.org/abs/2402.12907v2
- Date: Fri, 1 Mar 2024 11:18:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-04 13:39:19.945705
- Title: Incentive Compatibility for AI Alignment in Sociotechnical Systems:
Positions and Prospects
- Title(参考訳): 社会技術システムにおけるAIアライメントのインセンティブ適合性:位置と展望
- Authors: Zhaowei Zhang, Fengshuo Bai, Mingzhi Wang, Haoyang Ye, Chengdong Ma,
Yaodong Yang
- Abstract要約: 既存の方法論は主に技術的側面に焦点を当てており、しばしばAIシステムの複雑な社会技術的性質を無視している。
Incentive Compatibility Sociotechnical Alignment Problem (ICSAP)
ICを実現するための古典的なゲーム問題として,機構設計,契約理論,ベイズ的説得の3つを論じ,ICSAP解決の視点,可能性,課題について論じる。
- 参考スコア(独自算出の注目度): 11.086872298007835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The burgeoning integration of artificial intelligence (AI) into human society
brings forth significant implications for societal governance and safety. While
considerable strides have been made in addressing AI alignment challenges,
existing methodologies primarily focus on technical facets, often neglecting
the intricate sociotechnical nature of AI systems, which can lead to a
misalignment between the development and deployment contexts. To this end, we
posit a new problem worth exploring: Incentive Compatibility Sociotechnical
Alignment Problem (ICSAP). We hope this can call for more researchers to
explore how to leverage the principles of Incentive Compatibility (IC) from
game theory to bridge the gap between technical and societal components to
maintain AI consensus with human societies in different contexts. We further
discuss three classical game problems for achieving IC: mechanism design,
contract theory, and Bayesian persuasion, in addressing the perspectives,
potentials, and challenges of solving ICSAP, and provide preliminary
implementation conceptions.
- Abstract(参考訳): 人工知能(AI)の人類社会への統合は、社会的ガバナンスと安全に重大な影響を及ぼす。
AIアライメントの課題に対処するためにかなりの努力がなされているが、既存の方法論は主に技術的側面に焦点を当てており、しばしばAIシステムの複雑な社会技術的性質を無視している。
この目的のために、我々は、Incentive Compatibility Sociotechnical Alignment Problem (ICSAP)という新たな問題を探求する。
これにより、より多くの研究者がゲーム理論からインセンティブ・コンパチビリティ(IC)の原則を活用して、技術と社会的コンポーネントのギャップを埋めて、異なる文脈における人間の社会とのAIコンセンサスを維持する方法を探求できることを期待しています。
さらに、ICを実現するための古典的なゲーム問題として、機構設計、契約理論、ベイズ的説得の3つについて論じ、ICSAP解決の視点、可能性、課題に対処し、予備的な実装概念を提供する。
関連論文リスト
- A call for embodied AI [0.8242650459951482]
我々は、人工知能の次の基本ステップとして、エンボディードAIを提案する。
Embodied AIの範囲を広げることで、認知アーキテクチャに基づく理論的枠組みを導入する。
このフレームワークはFristonのアクティブな推論原則と一致しており、EAI開発に対する包括的なアプローチを提供する。
論文 参考訳(メタデータ) (2024-02-06T09:11:20Z) - Predictable Artificial Intelligence [67.79118050651908]
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
本稿では,予測可能なAIに関する疑問,仮説,課題を解明することを目的とする。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - Social AI and the Challenges of the Human-AI Ecosystem [60.26761762025781]
社会AIにおける主要なオープンな質問について論じ、技術的および科学的課題を概説する。
我々は,複雑システム,ネットワーク科学,AIの交差点にソーシャルAIの基礎を構築することを提案する。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - AI Development for the Public Interest: From Abstraction Traps to
Sociotechnical Risks [2.765897573789737]
AIの安全性、公正機械学習(Fair ML)、HIL(Human-in-the-Loop)オートノミー(Human-in-the-Loop)の3つの分野における社会技術調査の出現を追跡調査する。
各サブフィールドにおいて、PIT(Public Interest Technology)の認識は、規範的社会秩序の中での技術的システムの過去の統合によって直面する特定の危険に起因していることを示す。
本稿では,AIにおける社会工学系大学院教育への統一的アプローチのロードマップを示す。
論文 参考訳(メタデータ) (2021-02-04T18:54:20Z) - Expanding Explainability: Towards Social Transparency in AI systems [20.41177660318785]
社会透明性(英: Social Transparency、ST)とは、社会的な組織的文脈をAIによる意思決定の説明に取り入れた社会工学的な視点である。
XAIの設計空間を拡大することで、人間中心XAIの議論に貢献しています。
論文 参考訳(メタデータ) (2021-01-12T19:44:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。