論文の概要: From Human-Centered to Social-Centered Artificial Intelligence:
Assessing ChatGPT's Impact through Disruptive Events
- arxiv url: http://arxiv.org/abs/2306.00227v1
- Date: Wed, 31 May 2023 22:46:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 19:10:03.740425
- Title: From Human-Centered to Social-Centered Artificial Intelligence:
Assessing ChatGPT's Impact through Disruptive Events
- Title(参考訳): 人間中心から社会中心の人工知能:破壊的な出来事によるChatGPTの影響を評価する
- Authors: Skyler Wang, Ned Cooper, Margaret Eby, Eun Seo Jo
- Abstract要約: 最近のGPTモデルのリリースは、人工知能の研究と社会全体にとって、水没した瞬間だった。
ChatGPTの技術的および創造的な領域における卓越した習熟度は、広く普及した。
われわれは、ChatGPTの影響に対する批判が、そのパフォーマンスや、バイアス、毒性、そして「幻覚」に関連する、従来の責任あるAI評価に結びついていると論じている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) and dialogue agents have existed for years, but
the release of recent GPT models has been a watershed moment for artificial
intelligence (AI) research and society at large. Immediately recognized for its
generative capabilities and versatility, ChatGPT's impressive proficiency
across technical and creative domains led to its widespread adoption. While
society grapples with the emerging cultural impacts of ChatGPT, critiques of
ChatGPT's impact within the machine learning community have coalesced around
its performance or other conventional Responsible AI evaluations relating to
bias, toxicity, and 'hallucination.' We argue that these latter critiques draw
heavily on a particular conceptualization of the 'human-centered' framework,
which tends to cast atomized individuals as the key recipients of both the
benefits and detriments of technology. In this article, we direct attention to
another dimension of LLMs and dialogue agents' impact: their effect on social
groups, institutions, and accompanying norms and practices. By illustrating
ChatGPT's social impact through three disruptive events, we challenge
individualistic approaches in AI development and contribute to ongoing debates
around the ethical and responsible implementation of AI systems. We hope this
effort will call attention to more comprehensive and longitudinal evaluation
tools and compel technologists to go beyond human-centered thinking and ground
their efforts through social-centered AI.
- Abstract(参考訳): 大規模言語モデル(llm)と対話エージェントは何年も前から存在するが、最近のgptモデルのリリースは、人工知能(ai)の研究と社会全般にとって大きな節目となった。
ChatGPTはその生成能力と汎用性によってすぐに認識され、技術的および創造的な領域にまたがる卓越した習熟度が広く普及した。
社会は、ChatGPTの文化的影響の高まりに悩まされているが、機械学習コミュニティにおけるChatGPTの影響の批判は、そのパフォーマンスや、バイアス、毒性、そして「ハロシン化」に関連する従来の責任AI評価に結びついている。
後者の批判は、「人間中心」の枠組みの特定の概念化に強く依存しており、テクノロジーの利益と有害さの双方の鍵となるものとして、微粒化された個人を配置する傾向がある。
本稿では, LLMと対話エージェントの影響の別の側面, 社会集団, 機関, それに付随する規範や実践に対する影響に注意を向ける。
3つの破壊的なイベントを通じてChatGPTの社会的影響を説明することで、AI開発における個人主義的アプローチに挑戦し、AIシステムの倫理的かつ責任ある実装に関する継続的な議論に貢献する。
この取り組みは、より包括的で縦断的な評価ツールに注意を向け、技術者に人間中心の思考を超越し、社会中心のAIを通じて彼らの努力を根ざすことを願っている。
関連論文リスト
- Designing and Evaluating Dialogue LLMs for Co-Creative Improvised Theatre [48.19823828240628]
本研究では,Edinburgh Festival Fringeで1ヶ月のライブショーで展開されたLarge Language Models(LLMs)について紹介する。
オンザスポット多人数対話の技術的能力と制約について検討する。
我々のHuman-in-the-loop法は、文脈関連応答を生成する上で、これらのLCMの課題を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-05-11T23:19:42Z) - Advancing Social Intelligence in AI Agents: Technical Challenges and Open Questions [67.60397632819202]
ソーシャルインテリジェントAIエージェント(Social-AI)の構築は、多分野、マルチモーダルな研究目標である。
我々は、社会AIを前進させるために、基礎となる技術的課題と、コンピューティングコミュニティ全体にわたる研究者のためのオープンな質問を特定します。
論文 参考訳(メタデータ) (2024-04-17T02:57:42Z) - The Social Impact of Generative AI: An Analysis on ChatGPT [0.7401425472034117]
ジェネレーティブAIモデルの急速な開発は、そのメリット、制限、関連するリスクに関する熱い議論を引き起こしている。
生成モデルは、医療、金融、教育など、複数の分野にまたがって大きな可能性を秘めている。
本稿では,ChatGPTの事例を中心に,生成型AIツールの社会的意味を探求する方法論を採用する。
論文 参考訳(メタデータ) (2024-03-07T17:14:22Z) - Interrogating AI: Characterizing Emergent Playful Interactions with ChatGPT [10.907980864371213]
AIシステムとの遊び的なインタラクションは、ユーザがテクノロジーを理解するための重要な方法として自然に現れました。
我々は、新興AI技術のユーザであるChatGPTが提示する遊び心のあるインタラクションを調査することによって、このギャップを狙う。
また,ChatGPTサブレディット上での372件のユーザ生成記事のテーマ分析により,ユーザ談話の半数以上が遊び心のあるインタラクションを中心に展開していることがわかった。
論文 参考訳(メタデータ) (2024-01-16T14:44:13Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - SOTOPIA: Interactive Evaluation for Social Intelligence in Language Agents [107.4138224020773]
人工エージェントと人間との複雑な社会的相互作用をシミュレートするオープンエンド環境であるSOTOPIAを提案する。
エージェントは、複雑な社会的目標を達成するために協調し、協力し、交換し、互いに競い合う。
GPT-4は,人間よりも目標達成率が著しく低く,社会的常識的推論や戦略的コミュニケーション能力の発揮に苦慮していることがわかった。
論文 参考訳(メタデータ) (2023-10-18T02:27:01Z) - Digital Deception: Generative Artificial Intelligence in Social
Engineering and Phishing [7.1795069620810805]
本稿では,社会工学(SE)攻撃における生成AIの変革的役割について考察する。
我々は、社会工学の理論を用いて、ジェネレーティブAIがSE攻撃の影響を増幅する3つの柱を特定する。
本研究は, この新たなパラダイムに関連するリスク, 人的影響, 対策について, より深く理解することを目的としている。
論文 参考訳(メタデータ) (2023-10-15T07:55:59Z) - Deceptive AI Ecosystems: The Case of ChatGPT [8.128368463580715]
ChatGPTは人間のような反応を生成する能力で人気を博している。
本稿では,ChatGPTが社会的プレッシャーが開発・展開に影響を与える現実世界でどのように機能するかを検討する。
本稿では,ChatGPTの擬人的相互作用から生じる倫理的課題について考察する。
論文 参考訳(メタデータ) (2023-06-18T10:36:19Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - ChatGPT: More than a Weapon of Mass Deception, Ethical challenges and
responses from the Human-Centered Artificial Intelligence (HCAI) perspective [0.0]
本稿では,ChatGPTを生成AIの一種として用いることによって生じる倫理的問題について考察する。
ChatGPTの主な危険は、大量騙し兵器(WMD)として使われる確率である。
論文 参考訳(メタデータ) (2023-04-06T07:40:12Z) - Empowering Local Communities Using Artificial Intelligence [70.17085406202368]
人中心の観点から、AIが社会に与える影響を探求する上で重要なトピックとなっている。
市民科学におけるこれまでの研究は、AIを使って研究に大衆を巻き込む方法を特定してきた。
本稿では,コミュニティ市民科学にAIを適用する上での課題について論じる。
論文 参考訳(メタデータ) (2021-10-05T12:51:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。