論文の概要: Unsocial Intelligence: a Pluralistic, Democratic, and Participatory
Investigation of AGI Discourse
- arxiv url: http://arxiv.org/abs/2401.13142v2
- Date: Wed, 21 Feb 2024 19:34:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 17:50:23.172995
- Title: Unsocial Intelligence: a Pluralistic, Democratic, and Participatory
Investigation of AGI Discourse
- Title(参考訳): 非社会的知性:AGI談話の多元的・民主的・参加的調査
- Authors: Borhane Blili-Hamelin, Leif Hancox-Li, Andrew Smart
- Abstract要約: 人間レベルのAIや人工知能の意味について、合意された概念は存在しない。
我々は、AGIと人間レベルのAIの影響力のある概念によってなされた、社会的、政治的、倫理的な前提について検討する。
- 参考スコア(独自算出の注目度): 2.19238269573727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dreams of machines that rival human intelligence have shaped the field of AI
since its inception. Yet there remains no agreed-upon conception of what
human-level AI or artificial general intelligence (AGI) means. We investigate
key social, political, and ethical assumptions made by influential conceptions
of AGI and human-level AI. We then draw on feminist, STS, and social science
scholarship on the political and social character of intelligence in both
humans and machines to defend a pluralistic, democratic, and participatory
conception of the topic. We argue that framing AGI or human-level AI as a
technical or value-neutral topic leads to political, ethical, and epistemic
harm. AGI should not be developed without explicit attention to the values they
encode, the people they include or exclude, and a view toward epistemic
justice.
- Abstract(参考訳): 人間の知性と競合する機械の夢は、その誕生以来AIの分野を形成してきた。
しかし、人間レベルのAIや人工知能(AGI)の意味については、まだ合意されていない。
我々は、AGIと人間レベルのAIの影響力のある概念によってなされた、社会的、政治的、倫理的な前提について検討する。
次に、フェミニスト、sts、社会科学の奨学金として、人間と機械の両方における知能の政治的および社会的特性について論じ、多元的で民主的で参加的な概念を擁護する。
AGIや人間レベルのAIを技術的あるいは価値中立のトピックとして扱うことは、政治的、倫理的、疫学的な害をもたらすと我々は主張する。
agiは、エンコードする価値、彼らが含むか排除するか、認識論的正義に対する見解に明示的な注意を払わずに開発すべきではない。
関連論文リスト
- Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - When Brain-inspired AI Meets AGI [40.96159978312796]
我々は、人工知能の観点から、脳にインスパイアされたAIの包括的概要を提供する。
私たちは、脳にインスパイアされたAIの現在の進歩と、AGIとの広範な関係から始まります。
次に、人間の知性とAIの両面での重要な特徴について述べる。
論文 参考訳(メタデータ) (2023-03-28T12:46:38Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - On some Foundational Aspects of Human-Centered Artificial Intelligence [52.03866242565846]
人間中心人工知能(Human Centered Artificial Intelligence)の意味については明確な定義はない。
本稿では,AIコンポーネントを備えた物理・ソフトウェア計算エージェントを指すHCAIエージェントについて紹介する。
HCAIエージェントの概念は、そのコンポーネントや機能とともに、人間中心のAIに関する技術的および非技術的議論を橋渡しする手段であると考えています。
論文 参考訳(メタデータ) (2021-12-29T09:58:59Z) - Symbols as a Lingua Franca for Bridging Human-AI Chasm for Explainable
and Advisable AI Systems [21.314210696069495]
我々は、人間-AI相互作用における(人間-理解可能な)シンボルの必要性は、非常に説得力があるように思える。
特に、人間は明示的な(象徴的な)知識とアドバイスを提供することに興味があり、機械の説明を期待する。
これだけでも、AIシステムは少なくとも象徴的な言葉でI/Oを行う必要がある。
論文 参考訳(メタデータ) (2021-09-21T01:30:06Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - The Role of Social Movements, Coalitions, and Workers in Resisting
Harmful Artificial Intelligence and Contributing to the Development of
Responsible AI [0.0]
あらゆる分野の連合は、AIの恥ずべき適用に抵抗するために世界中で活動している。
AIアルゴリズムにはバイアスがあり、不正で、乱雑な仮定が埋め込まれています。
AIの最大の貢献の1つは、人類の知恵が地球上でいかに重要かを理解することだ。
論文 参考訳(メタデータ) (2021-07-11T18:51:29Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - The Short Anthropological Guide to the Study of Ethical AI [91.3755431537592]
ショートガイドは、AI倫理と社会科学の紹介と、AIの開発に関する人類学的視点の両方を兼ね備えている。
AIシステムの社会的影響と、これらのシステムがいかにして我々の世界がどのように機能するかを再考するかについての洞察を、この分野に馴染みのない人たちに提供することを目指している。
論文 参考訳(メタデータ) (2020-10-07T12:25:03Z) - Human $\neq$ AGI [1.370633147306388]
AGI(General Intelligence)とHLAI(Human-Level Artificial Intelligence)は、人工知能研究の聖杯を相互に参照するために用いられる。
本稿では,AGI と HLAI の能力の等価性の暗黙的な仮定は,人間は一般知能ではないため不当であると考えられる。
論文 参考訳(メタデータ) (2020-07-11T14:06:13Z) - Good AI for the Present of Humanity Democratizing AI Governance [0.0]
AI倫理とサイバーパンク文学の類似点は、どちらも将来の社会的および倫理的問題を探求することである。
この記事では、よりサイバーパンク的なAI倫理の方法、より民主的なガバナンスの方法を提唱したい。
論文 参考訳(メタデータ) (2020-07-08T23:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。