論文の概要: Perceptions and Realities of Text-to-Image Generation
- arxiv url: http://arxiv.org/abs/2306.08363v2
- Date: Fri, 18 Aug 2023 11:24:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 19:34:53.311471
- Title: Perceptions and Realities of Text-to-Image Generation
- Title(参考訳): テキスト対画像生成の知覚と現実
- Authors: Jonas Oppenlaender, Johanna Silvennoinen, Ville Paananen, Aku Visuri
- Abstract要約: 生成人工知能(AI)は広く普及している技術であり、社会や個人に大きな影響を与える。
本研究は,テキスト・ツー・イメージ・ジェネレーションに対する人々の認識に関する調査研究の成果である。
- 参考スコア(独自算出の注目度): 8.557266099784561
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative artificial intelligence (AI) is a widely popular technology that
will have a profound impact on society and individuals. Less than a decade ago,
it was thought that creative work would be among the last to be automated - yet
today, we see AI encroaching on many creative domains. In this paper, we
present the findings of a survey study on people's perceptions of text-to-image
generation. We touch on participants' technical understanding of the emerging
technology, their fears and concerns, and thoughts about risks and dangers of
text-to-image generation to the individual and society. We find that while
participants were aware of the risks and dangers associated with the
technology, only few participants considered the technology to be a personal
risk. The risks for others were more easy to recognize for participants.
Artists were particularly seen at risk. Interestingly, participants who had
tried the technology rated its future importance lower than those who had not
tried it. This result shows that many people are still oblivious of the
potential personal risks of generative artificial intelligence and the
impending societal changes associated with this technology.
- Abstract(参考訳): 生成人工知能(AI)は広く普及している技術であり、社会や個人に大きな影響を与える。
10年足らず前には、クリエイティブな作業が自動化される最後のものになるだろうと考えられていました。
本稿では,テキストから画像への生成に対する人々の知覚に関する調査の結果について述べる。
我々は,新興技術に対する参加者の技術的理解,その恐怖と懸念,および個人や社会に対するテキスト・ツー・イメージ・ジェネレーションのリスクと危険性について考察する。
参加者は、この技術に関連するリスクと危険性を認識していたが、技術が個人的リスクであると考える参加者はごくわずかである。
他人のリスクは参加者にとってより容易に認識できた。
芸術家は特に危険にさらされた。
興味深いことに、この技術を試した参加者は、試した人よりも将来の重要性を低く評価した。
この結果は、多くの人々が、生成的人工知能の潜在的な個人的リスクと、この技術に関連する差し迫った社会的変化をまだ知らないことを示している。
関連論文リスト
- Misrepresented Technological Solutions in Imagined Futures: The Origins and Dangers of AI Hype in the Research Community [0.060998359915727114]
我々は、AIハイプの起源とリスクを、研究コミュニティや社会に広く検討する。
我々は、研究者、規制当局、そして一般市民がこれらのリスクを軽減し、この技術に関する根拠のない主張の頻度を減らすための一連の措置を提案する。
論文 参考訳(メタデータ) (2024-08-08T20:47:17Z) - Now, Later, and Lasting: Ten Priorities for AI Research, Policy, and Practice [63.20307830884542]
今後数十年は、産業革命に匹敵する人類の転換点になるかもしれない。
10年前に立ち上げられたこのプロジェクトは、複数の専門分野の専門家による永続的な研究にコミットしている。
AI技術の短期的および長期的影響の両方に対処する、アクションのための10のレコメンデーションを提供します。
論文 参考訳(メタデータ) (2024-04-06T22:18:31Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - Amplifying Limitations, Harms and Risks of Large Language Models [1.0152838128195467]
この記事は、人工知能に関する誇大広告の急増に対抗すべく、小さなジェスチャーとして紹介する。
また、この分野の外部の人たちが、AI技術の限界についてより深く知るのに役立つかもしれない。
論文 参考訳(メタデータ) (2023-07-06T11:53:45Z) - The Cultivated Practices of Text-to-Image Generation [5.498355194100662]
人間は誰でも生成人工知能(AI)を使ってデジタル情報を合成できる新しい創造的時代に入った
特にテキスト・ツー・イメージ・ジェネレーションは非常に人気があり、何百万人もの実践者がAI生成画像やAIアートをオンラインで制作している。
この章ではまず、健全な共同創造型オンラインエコシステムが急速に出現する上で重要な展開の概要を紹介します。
AIアートコミュニティによって受け入れられた創造的なプラクティスである、プロンプトエンジニアリングに特に焦点が当てられている。
論文 参考訳(メタデータ) (2023-06-20T08:59:51Z) - The Age of Synthetic Realities: Challenges and Opportunities [85.058932103181]
我々は、有害な合成生成を識別し、それらを現実と区別することのできる法医学的手法の開発における重要な必要性を強調した。
我々の焦点は、画像、ビデオ、オーディオ、テキストなどの様々なメディアの形式にまで及んでいる。
この研究は、AI生成技術の急速な進歩と、法科学の基本原理に対する影響により、最も重要である。
論文 参考訳(メタデータ) (2023-06-09T15:55:10Z) - Redefining Relationships in Music [55.478320310047785]
私たちは、AIツールが音楽文化を根本的に変えてくれると論じています。
この分野で働く人々は、音楽の実践、消費、意味に対するネガティブな影響を減らすことができる。
論文 参考訳(メタデータ) (2022-12-13T19:44:32Z) - Current and Near-Term AI as a Potential Existential Risk Factor [5.1806669555925975]
我々は、現在および短期的な人工知能技術が、現実的なリスクに寄与する可能性があるという考えを問題視する。
我々は、すでに文書化されているAIの効果が、実在するリスク要因として機能する、という仮説を提案する。
私たちの主な貢献は、潜在的なAIリスク要因とそれら間の因果関係の展示です。
論文 参考訳(メタデータ) (2022-09-21T18:56:14Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - The Short Anthropological Guide to the Study of Ethical AI [91.3755431537592]
ショートガイドは、AI倫理と社会科学の紹介と、AIの開発に関する人類学的視点の両方を兼ね備えている。
AIシステムの社会的影響と、これらのシステムがいかにして我々の世界がどのように機能するかを再考するかについての洞察を、この分野に馴染みのない人たちに提供することを目指している。
論文 参考訳(メタデータ) (2020-10-07T12:25:03Z) - Creativity in the era of artificial intelligence [1.8275108630751844]
我々は、社会科学と計算科学のフロンティアを曖昧にすることで、AI時代の創造性に関する新たな視点を提供することを目指している。
我々は、自己完結した元ニヒロ生成機械に対して、人間の創造的特性を純粋に模倣しようとする目的は、非常に反生産的であろうと論じる。
論文 参考訳(メタデータ) (2020-08-13T15:07:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。