論文の概要: From human-centered to social-centered artificial intelligence: Assessing ChatGPT's impact through disruptive events
- arxiv url: http://arxiv.org/abs/2306.00227v2
- Date: Fri, 25 Oct 2024 04:18:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-28 13:34:53.653755
- Title: From human-centered to social-centered artificial intelligence: Assessing ChatGPT's impact through disruptive events
- Title(参考訳): 人間中心の人工知能から社会中心の人工知能へ:ChatGPTの破壊的出来事による影響を評価する
- Authors: Skyler Wang, Ned Cooper, Margaret Eby,
- Abstract要約: 機械学習研究コミュニティにおけるChatGPTの影響に対する批判は、そのパフォーマンスや、バイアス、毒性、"ハロシン化"に関連する従来の安全性評価に結びついている、と我々は主張する。
社会中心のフレームワークを通じてChatGPTの社会的影響を分析することで、AI開発における個人主義的アプローチに挑戦し、AIシステムの倫理的かつ責任ある展開に関する継続的な議論に貢献する。
- 参考スコア(独自算出の注目度): 1.1858896428516252
- License:
- Abstract: Large language models (LLMs) and dialogue agents represent a significant shift in artificial intelligence (AI) research, particularly with the recent release of the GPT family of models. ChatGPT's generative capabilities and versatility across technical and creative domains led to its widespread adoption, marking a departure from more limited deployments of previous AI systems. While society grapples with the emerging cultural impacts of this new societal-scale technology, critiques of ChatGPT's impact within machine learning research communities have coalesced around its performance or other conventional safety evaluations relating to bias, toxicity, and "hallucination." We argue that these critiques draw heavily on a particular conceptualization of the "human-centered" framework, which tends to cast atomized individuals as the key recipients of technology's benefits and detriments. In this article, we direct attention to another dimension of LLMs and dialogue agents' impact: their effects on social groups, institutions, and accompanying norms and practices. By analyzing ChatGPT's social impact through a social-centered framework, we challenge individualistic approaches in AI development and contribute to ongoing debates around the ethical and responsible deployment of AI systems. We hope this effort will call attention to more comprehensive and longitudinal evaluation tools (e.g., including more ethnographic analyses and participatory approaches) and compel technologists to complement human-centered thinking with social-centered approaches.
- Abstract(参考訳): 大規模言語モデル(LLM)と対話エージェントは、人工知能(AI)の研究において、特に最近のGPTモデルのファミリのリリースにおいて、大きな変化を示している。
ChatGPTの生成能力と技術的および創造的なドメイン間の汎用性は広く採用され、従来のAIシステムのより限定的なデプロイメントから逸脱した。
社会は、この新しい社会規模技術による文化的影響の増大に悩まされているが、機械学習研究コミュニティにおけるChatGPTの影響の批判は、そのパフォーマンスや、バイアス、毒性、"ハロシン化"に関連する他の従来の安全評価に結びついている。
これらの批判は、「人間中心」の枠組みの特定の概念化に大きく依存しており、テクノロジーの利益と有害性の鍵となる個人を原子化された個人とみなす傾向にある、と我々は論じている。
本稿では, LLMと対話エージェントの影響の別の側面, 社会集団, 機関, それに付随する規範や実践に対する影響に注意を向ける。
社会中心のフレームワークを通じてChatGPTの社会的影響を分析することで、AI開発における個人主義的アプローチに挑戦し、AIシステムの倫理的かつ責任ある展開に関する継続的な議論に貢献する。
この取り組みは、より包括的で縦断的な評価ツール(例えば、エスノグラフィー分析や参加型アプローチなど)に注意を向け、技術者に社会中心のアプローチで人間中心の思考を補完するように促すことを願っている。
関連論文リスト
- Towards Human-centered Proactive Conversational Agents [60.57226361075793]
積極的システムと反応性システムの区別は、積極的システムのイニシアティブな性質にある。
我々は,人間中心型PCAの3つの重要な側面,すなわち知性,適応性,市民性に関する新たな分類法を確立する。
論文 参考訳(メタデータ) (2024-04-19T07:14:31Z) - Advancing Social Intelligence in AI Agents: Technical Challenges and Open Questions [67.60397632819202]
ソーシャルインテリジェントAIエージェント(Social-AI)の構築は、多分野、マルチモーダルな研究目標である。
我々は、社会AIを前進させるために、基礎となる技術的課題と、コンピューティングコミュニティ全体にわたる研究者のためのオープンな質問を特定します。
論文 参考訳(メタデータ) (2024-04-17T02:57:42Z) - The Social Impact of Generative AI: An Analysis on ChatGPT [0.7401425472034117]
ジェネレーティブAIモデルの急速な開発は、そのメリット、制限、関連するリスクに関する熱い議論を引き起こしている。
生成モデルは、医療、金融、教育など、複数の分野にまたがって大きな可能性を秘めている。
本稿では,ChatGPTの事例を中心に,生成型AIツールの社会的意味を探求する方法論を採用する。
論文 参考訳(メタデータ) (2024-03-07T17:14:22Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Socially Cognizant Robotics for a Technology Enhanced Society [13.094097428580564]
我々は、技術・社会科学の手法を合成する学際的アプローチ、社会的認知ロボティクスを提唱する。
このアプローチは、AI駆動型ロボットの動作を形作る上で、ステークホルダーの参加を促進する必要性に従うものだ、と私たちは主張する。
我々は、従来の技術ベースのメトリクスと重要な、しかし難しいメトリクスのバランスをとる、社会的に認知されたロボット設計のためのベストプラクティスを開発します。
論文 参考訳(メタデータ) (2023-10-27T17:53:02Z) - SOTOPIA: Interactive Evaluation for Social Intelligence in Language Agents [107.4138224020773]
人工エージェントと人間との複雑な社会的相互作用をシミュレートするオープンエンド環境であるSOTOPIAを提案する。
エージェントは、複雑な社会的目標を達成するために協調し、協力し、交換し、互いに競い合う。
GPT-4は,人間よりも目標達成率が著しく低く,社会的常識的推論や戦略的コミュニケーション能力の発揮に苦慮していることがわかった。
論文 参考訳(メタデータ) (2023-10-18T02:27:01Z) - Digital Deception: Generative Artificial Intelligence in Social
Engineering and Phishing [7.1795069620810805]
本稿では,社会工学(SE)攻撃における生成AIの変革的役割について考察する。
我々は、社会工学の理論を用いて、ジェネレーティブAIがSE攻撃の影響を増幅する3つの柱を特定する。
本研究は, この新たなパラダイムに関連するリスク, 人的影響, 対策について, より深く理解することを目的としている。
論文 参考訳(メタデータ) (2023-10-15T07:55:59Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Empowering Local Communities Using Artificial Intelligence [70.17085406202368]
人中心の観点から、AIが社会に与える影響を探求する上で重要なトピックとなっている。
市民科学におけるこれまでの研究は、AIを使って研究に大衆を巻き込む方法を特定してきた。
本稿では,コミュニティ市民科学にAIを適用する上での課題について論じる。
論文 参考訳(メタデータ) (2021-10-05T12:51:11Z) - Interdisciplinary Approaches to Understanding Artificial Intelligence's
Impact on Society [7.016365171255391]
aiは、予期せぬ社会技術的問題を引き起こしている。
コンピュータ科学と社会と社会の価値を研究する分野の密接な結合が必要です。
論文 参考訳(メタデータ) (2020-12-11T00:43:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。