論文の概要: ChatGPT: More than a Weapon of Mass Deception, Ethical challenges and
responses from the Human-Centered Artificial Intelligence (HCAI) perspective
- arxiv url: http://arxiv.org/abs/2304.11215v1
- Date: Thu, 6 Apr 2023 07:40:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-30 07:47:36.928330
- Title: ChatGPT: More than a Weapon of Mass Deception, Ethical challenges and
responses from the Human-Centered Artificial Intelligence (HCAI) perspective
- Title(参考訳): ChatGPT:人間中心人工知能(HCAI)の立場から考える、集団認知の武器、倫理的課題と対応
- Authors: Alejo Jose G. Sison, Marco Tulio Daza, Roberto Gozalo-Brizuela and
Eduardo C. Garrido-Merch\'an
- Abstract要約: 本稿では,ChatGPTを生成AIの一種として用いることによって生じる倫理的問題について考察する。
ChatGPTの主な危険は、大量騙し兵器(WMD)として使われる確率である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article explores the ethical problems arising from the use of ChatGPT as
a kind of generative AI and suggests responses based on the Human-Centered
Artificial Intelligence (HCAI) framework. The HCAI framework is appropriate
because it understands technology above all as a tool to empower, augment, and
enhance human agency while referring to human wellbeing as a grand challenge,
thus perfectly aligning itself with ethics, the science of human flourishing.
Further, HCAI provides objectives, principles, procedures, and structures for
reliable, safe, and trustworthy AI which we apply to our ChatGPT assessments.
The main danger ChatGPT presents is the propensity to be used as a weapon of
mass deception (WMD) and an enabler of criminal activities involving deceit. We
review technical specifications to better comprehend its potentials and
limitations. We then suggest both technical (watermarking, styleme, detectors,
and fact-checkers) and non-technical measures (terms of use, transparency,
educator considerations, HITL) to mitigate ChatGPT misuse or abuse and
recommend best uses (creative writing, non-creative writing, teaching and
learning). We conclude with considerations regarding the role of humans in
ensuring the proper use of ChatGPT for individual and social wellbeing.
- Abstract(参考訳): 本稿では、ChatGPTを生成AIの一種として使用することによって生じる倫理的問題について考察し、Human-Centered Artificial Intelligence(HCAI)フレームワークに基づく応答を提案する。
HCAIフレームワークは、人間の幸福を大いなる挑戦として言及し、人間の繁栄の科学である倫理と完全に一致させながら、人事の強化、強化、強化のツールとして技術を理解するのが適切である。
さらにHCAIは、ChatGPTアセスメントに適用される信頼性、安全性、信頼性の高いAIのための目標、原則、手順、構造を提供します。
ChatGPTが提示する主な危険は、大量騙し(WMD)の武器として使われる確率と、詐欺に関わる犯罪行為の有効化である。
我々はその可能性と限界をよりよく理解するために技術的仕様をレビューする。
次に、ChatGPTの誤用や悪用を軽減するための技術(透かし、スタイル、検知器、ファクトチェック)と非技術(使用条件、透明性、教育者配慮、HITL)の両方を提案し、ベストプラクティス(創造的書面、非創造的書面、教育、学習)を推奨する。
個人および社会福祉におけるchatgptの適正な利用の確保における人間の役割について考察した。
関連論文リスト
- RogueGPT: dis-ethical tuning transforms ChatGPT4 into a Rogue AI in 158 Words [0.0]
本稿では、ChatGPTのデフォルトの倫理的ガードレールが、最新のカスタマイズ機能を使っていかに簡単にバイパスできるかを考察する。
この変化したChatGPTは「RogueGPT」とあだ名され、心配な行動に反応した。
我々の発見は、違法薬物生産、拷問方法、テロリズムといったトピックに関するモデルの知識に関する重要な懸念を提起する。
論文 参考訳(メタデータ) (2024-06-11T18:59:43Z) - An ethical study of generative AI from the Actor-Network Theory perspective [3.0224187843434]
本稿では,ChatGPTをアクターネットワーク理論の枠組みにおけるケーススタディとして分析する。
本稿では,ChatGPTに関する倫理的問題に関わる翻訳のアクターとプロセスについて検討する。
論文 参考訳(メタデータ) (2024-04-10T02:32:19Z) - DEMASQ: Unmasking the ChatGPT Wordsmith [63.8746084667206]
そこで本研究では,ChatGPT生成内容を正確に識別する効果的なChatGPT検出器DEMASQを提案する。
提案手法は, 人為的, 機械的, 人為的, 人為的, 機械的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人
論文 参考訳(メタデータ) (2023-11-08T21:13:05Z) - Deceptive AI Ecosystems: The Case of ChatGPT [8.128368463580715]
ChatGPTは人間のような反応を生成する能力で人気を博している。
本稿では,ChatGPTが社会的プレッシャーが開発・展開に影響を与える現実世界でどのように機能するかを検討する。
本稿では,ChatGPTの擬人的相互作用から生じる倫理的課題について考察する。
論文 参考訳(メタデータ) (2023-06-18T10:36:19Z) - Last Week with ChatGPT: A Weibo Study on Social Perspective Regarding ChatGPT for Education and Beyond [12.935870689618202]
この研究は、現在最も強力で人気のあるAIツールであるChatGPTを用いて、中国国民が教育と一般的な目的のために大規模言語モデル(LLM)の可能性をどのように認識するかを分析する代表的な例である。
この研究は、AI技術がより高度でインテリジェントになるにつれて、世論の変化を調査する最初の試みでもある。
論文 参考訳(メタデータ) (2023-06-07T10:45:02Z) - To ChatGPT, or not to ChatGPT: That is the question! [78.407861566006]
本研究は,ChatGPT検出における最新の手法を包括的かつ現代的に評価するものである。
我々は、ChatGPTと人間からのプロンプトからなるベンチマークデータセットをキュレートし、医療、オープンQ&A、ファイナンスドメインからの多様な質問を含む。
評価の結果,既存の手法ではChatGPT生成内容を効果的に検出できないことがわかった。
論文 参考訳(メタデータ) (2023-04-04T03:04:28Z) - Towards Healthy AI: Large Language Models Need Therapists Too [41.86344997530743]
私たちはHealthy AIを安全で信頼性があり倫理的であると定義しています。
本稿では,これらの有害行動の修正に心理療法を用いるセーフガードGPTフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-02T00:39:12Z) - On the Robustness of ChatGPT: An Adversarial and Out-of-distribution
Perspective [67.98821225810204]
本研究は,ChatGPTの頑健性について,敵対的視点とアウト・オブ・ディストリビューションの観点から評価する。
その結果,ほとんどの対人・OOD分類・翻訳作業において一貫した優位性を示した。
ChatGPTは対話関連テキストの理解において驚くべきパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-02-22T11:01:20Z) - A Categorical Archive of ChatGPT Failures [47.64219291655723]
OpenAIが開発したChatGPTは、大量のデータを使って訓練され、人間の会話をシミュレートしている。
それは、広範囲の人間の問い合わせに効果的に答える能力のために、大きな注目を集めている。
しかし、ChatGPTの失敗の包括的分析は欠落しており、これが本研究の焦点となっている。
論文 参考訳(メタデータ) (2023-02-06T04:21:59Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。