論文の概要: A Pathway Towards Responsible AI Generated Content
- arxiv url: http://arxiv.org/abs/2303.01325v3
- Date: Wed, 27 Dec 2023 08:21:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 23:31:14.952121
- Title: A Pathway Towards Responsible AI Generated Content
- Title(参考訳): 責任あるAI生成コンテンツへの道
- Authors: Chen Chen, Jie Fu, Lingjuan Lyu
- Abstract要約: 我々は、AIGCの健全な開発と展開を妨げかねない8つの主要な懸念に焦点を当てている。
これらの懸念には、(1)プライバシー、(2)バイアス、毒性、誤情報、(3)知的財産(IP)、(4)堅牢性、(5)オープンソースと説明、(6)技術の乱用、(7)同意、信用、補償、(8)環境からのリスクが含まれる。
- 参考スコア(独自算出の注目度): 68.13835802977125
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI Generated Content (AIGC) has received tremendous attention within the past
few years, with content generated in the format of image, text, audio, video,
etc. Meanwhile, AIGC has become a double-edged sword and recently received much
criticism regarding its responsible usage. In this article, we focus on 8 main
concerns that may hinder the healthy development and deployment of AIGC in
practice, including risks from (1) privacy; (2) bias, toxicity, misinformation;
(3) intellectual property (IP); (4) robustness; (5) open source and
explanation; (6) technology abuse; (7) consent, credit, and compensation; (8)
environment. Additionally, we provide insights into the promising directions
for tackling these risks while constructing generative models, enabling AIGC to
be used more responsibly to truly benefit society.
- Abstract(参考訳): AI生成コンテンツ(AIGC)は、画像、テキスト、オーディオ、ビデオなどのフォーマットで生成されたコンテンツとともに、ここ数年で大きな注目を集めています。
一方、AIGCは二刃の剣となり、最近その責任ある使用について多くの批判を受けた。
本稿では,(1)プライバシからのリスク,(2)バイアス,毒性,誤情報,(3)知的財産(ip),(4)堅牢性,(5)オープンソースと説明,(6)技術乱用,(7)同意,信用,補償,(8)環境を含む,aigcの健全な開発と展開を妨げる8つの主な懸念に焦点を当てる。
さらに、これらのリスクに取り組むための有望な方向性について、生成モデルを構築しながら洞察を与え、aigcを社会に真に利益をもたらすためにより責任を持って使用できるようにします。
関連論文リスト
- Ten Hard Problems in Artificial Intelligence We Must Get Right [76.13992275864176]
AIの約束を阻止し、AIのリスクを引き起こすAI2050の「ハード問題」について検討する。
それぞれの問題について、その領域を概説し、最近の重要な作業を特定し、今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-06T23:16:41Z) - What's my role? Modelling responsibility for AI-based safety-critical
systems [1.0549609328807565]
開発者や製造業者は、AI-SCSの有害な振る舞いに責任を負うことは困難である。
人間のオペレータは、作成に責任を負わなかったAI-SCS出力の結果に責任を負う"信頼性シンク"になる可能性がある。
本稿では,異なる責任感(ロール,モラル,法的,因果関係)と,それらがAI-SCSの安全性の文脈でどのように適用されるかを検討する。
論文 参考訳(メタデータ) (2023-12-30T13:45:36Z) - "There Has To Be a Lot That We're Missing": Moderating AI-Generated
Content on Reddit [5.847084649531299]
ジェネレーティブAIは、私たちの働き方、学習方法、コミュニケーション方法、オンラインコミュニティへの参加方法の破壊を脅かす。
AIGC(AIGC)によるRedditモデレーターの課題を理解するための質的研究を行った。
我々は、AIGCの経験について、サブレディットモデレーターとの詳細な半構造化インタビューを15回行った。
論文 参考訳(メタデータ) (2023-11-21T16:15:21Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - Challenges and Remedies to Privacy and Security in AIGC: Exploring the
Potential of Privacy Computing, Blockchain, and Beyond [17.904983070032884]
本稿では,AIGCの概念,分類,基礎技術について概観する。
複数の観点からAIGCが直面するプライバシーとセキュリティの課題について論じる。
論文 参考訳(メタデータ) (2023-06-01T07:49:22Z) - A Survey on ChatGPT: AI-Generated Contents, Challenges, and Solutions [19.50785795365068]
AIGCは、生成可能な大規模なAIアルゴリズムを使用して、人間が高速で低コストで、大規模で高品質で、人間に似たコンテンツを作成するのを支援する。
本稿では,作業原則,セキュリティとプライバシの脅威,最先端のソリューション,AIGCパラダイムの今後の課題について,詳細な調査を行う。
論文 参考訳(メタデータ) (2023-05-25T15:09:11Z) - A Complete Survey on Generative AI (AIGC): Is ChatGPT from GPT-4 to
GPT-5 All You Need? [112.12974778019304]
生成AI(AIGC、つまりAI生成コンテンツ)は、テキスト、画像、その他を分析、作成する能力により、あらゆる場所で話題を呼んだ。
純粋な分析から創造へと移行するAIの時代において、ChatGPTは最新の言語モデルであるGPT-4とともに、多くのAIGCタスクからなるツールである。
本研究は,テキスト,画像,ビデオ,3Dコンテンツなど,出力タイプに基づいたAIGCタスクの技術的開発に焦点を当てている。
論文 参考訳(メタデータ) (2023-03-21T10:09:47Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。