論文の概要: An ethical study of generative AI from the Actor-Network Theory perspective
- arxiv url: http://arxiv.org/abs/2406.11860v1
- Date: Wed, 10 Apr 2024 02:32:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 07:30:49.467494
- Title: An ethical study of generative AI from the Actor-Network Theory perspective
- Title(参考訳): アクターネットワーク理論からみた生成AIの倫理的研究
- Authors: Yuying Li, Jinchi Zhu,
- Abstract要約: 本稿では,ChatGPTをアクターネットワーク理論の枠組みにおけるケーススタディとして分析する。
本稿では,ChatGPTに関する倫理的問題に関わる翻訳のアクターとプロセスについて検討する。
- 参考スコア(独自算出の注目度): 3.0224187843434
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The widespread use of Generative Artificial Intelligence in the innovation and generation of communication content is mainly due to its exceptional creative ability, operational efficiency, and compatibility with diverse industries. Nevertheless, this has also sparked ethical problems, such as unauthorized access to data, biased decision-making by algorithms, and criminal use of generated content. In order to tackle the security vulnerabilities linked to Generative Artificial Intelligence, we analyze ChatGPT as a case study within the framework of Actor-Network Theory. We have discovered a total of nine actors, including both human and non-human creatures. We examine the actors and processes of translation involved in the ethical issues related to ChatGPT and analyze the key players involved in the emergence of moral issues. The objective is to explore the origins of the ethical issues that arise with Generative Artificial Intelligence and provide a particular perspective on the governance of Generative Artificial Intelligence.
- Abstract(参考訳): ジェネレーティブ・人工知能(英語版)がコミュニケーションコンテンツの革新と生成に広く利用されているのは、その例外的な創造力、運用効率、様々な産業との互換性が主な原因である。
それにもかかわらず、これはまた、データへの不正アクセス、アルゴリズムによる判断の偏り、生成されたコンテンツの犯罪利用といった倫理的な問題を引き起こしている。
生成人工知能に関連するセキュリティ脆弱性に対処するため,我々はChatGPTをアクターネットワーク理論の枠組みにおけるケーススタディとして分析する。
我々は、人間と非人間の両方を含む合計9人の俳優を発見した。
本稿では,ChatGPTに関連する倫理的問題に関わる翻訳のアクターとプロセスについて検討し,道徳的問題の発生に関わる重要な要因について分析する。
目的は、生成人工知能で生じる倫理的問題の起源を探求し、生成人工知能のガバナンスに関する特別な視点を提供することである。
関連論文リスト
- Measuring Human Contribution in AI-Assisted Content Generation [68.03658922067487]
本研究は,AIによるコンテンツ生成における人間の貢献度を測定する研究課題を提起する。
人間の入力とAI支援出力の自己情報に対する相互情報を計算することにより、コンテンツ生成における人間の比例情報貢献を定量化する。
論文 参考訳(メタデータ) (2024-08-27T05:56:04Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Advancing Explainable AI Toward Human-Like Intelligence: Forging the
Path to Artificial Brain [0.7770029179741429]
説明可能なAI(XAI)における人工知能(AI)と神経科学の交差は、複雑な意思決定プロセスにおける透明性と解釈可能性を高めるために重要である。
本稿では,機能ベースから人間中心のアプローチまで,XAI方法論の進化について考察する。
生成モデルにおける説明可能性の達成、責任あるAIプラクティスの確保、倫理的意味への対処に関する課題について論じる。
論文 参考訳(メタデータ) (2024-02-07T14:09:11Z) - Business and ethical concerns in domestic Conversational Generative
AI-empowered multi-robot systems [6.162568614020117]
生成的人工知能は、最近の人工知能(AI)の議論において主要なトピックとなっている。
我々は、生成AIの会話的側面に特化して、会話生成人工知能(Conversational Generative AI, CGI)という用語を用いる。
ビジネスの観点からは、利害の対立、プライバシーの慣行、安全上の懸念が潜在的に起こり得る協力的なMSSは、倫理的検査を必要とする。
論文 参考訳(メタデータ) (2024-01-12T11:05:32Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Digital Deception: Generative Artificial Intelligence in Social
Engineering and Phishing [7.1795069620810805]
本稿では,社会工学(SE)攻撃における生成AIの変革的役割について考察する。
我々は、社会工学の理論を用いて、ジェネレーティブAIがSE攻撃の影響を増幅する3つの柱を特定する。
本研究は, この新たなパラダイムに関連するリスク, 人的影響, 対策について, より深く理解することを目的としている。
論文 参考訳(メタデータ) (2023-10-15T07:55:59Z) - A Review of the Ethics of Artificial Intelligence and its Applications
in the United States [0.0]
この論文は、AIが米国経済のあらゆる分野に与える影響と、ビジネス、政府、アカデミック、そして市民社会にまたがる組織に与える影響を強調している。
我々の議論は、包括的なテーマとして構成された11の基本的な「倫理的原則」を探求する。
これらは透明性、正義、公正、平等、非正当性、責任、説明責任、プライバシー、利益、自由、自律、信頼、尊厳、持続可能性、連帯性を含む。
論文 参考訳(メタデータ) (2023-10-09T14:29:00Z) - The Promise and Peril of Artificial Intelligence -- Violet Teaming
Offers a Balanced Path Forward [56.16884466478886]
本稿では、不透明で制御不能なAIシステムにおける新興問題についてレビューする。
信頼性と責任のあるAIを開発するために、紫外チームと呼ばれる統合フレームワークを提案する。
それは、設計によって積極的にリスクを管理するためのAI安全研究から生まれた。
論文 参考訳(メタデータ) (2023-08-28T02:10:38Z) - ChatGPT: More than a Weapon of Mass Deception, Ethical challenges and
responses from the Human-Centered Artificial Intelligence (HCAI) perspective [0.0]
本稿では,ChatGPTを生成AIの一種として用いることによって生じる倫理的問題について考察する。
ChatGPTの主な危険は、大量騙し兵器(WMD)として使われる確率である。
論文 参考訳(メタデータ) (2023-04-06T07:40:12Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。