論文の概要: Culling Misinformation from Gen AI: Toward Ethical Curation and Refinement
- arxiv url: http://arxiv.org/abs/2507.14242v1
- Date: Thu, 17 Jul 2025 21:19:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:31.798542
- Title: Culling Misinformation from Gen AI: Toward Ethical Curation and Refinement
- Title(参考訳): Gen AIからの誤情報収集 : 倫理的キュレーションとリファインメントに向けて
- Authors: Prerana Khatiwada, Grace Donaher, Jasymyn Navarro, Lokesh Bhatta,
- Abstract要約: 近年の進歩、特にChatGPTのようなジェネレーティブツールのリリースにより、産業労働者や学術関係者の目玉となった。
この研究は、多くの株式に関する懸念や、新しいAIによる誤報の拡散をよりよく理解する立場にある。
多くの学術資料を踏まえると、医療、教育、科学、アカデミック、小売、金融などの分野におけるそれらの原因と影響を分析し、これらの問題に警告する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While Artificial Intelligence (AI) is not a new field, recent developments, especially with the release of generative tools like ChatGPT, have brought it to the forefront of the minds of industry workers and academic folk alike. There is currently much talk about AI and its ability to reshape many everyday processes as we know them through automation. It also allows users to expand their ideas by suggesting things they may not have thought of on their own and provides easier access to information. However, not all of the changes this technology will bring or has brought so far are positive; this is why it is extremely important for all modern people to recognize and understand the risks before using these tools and allowing them to cause harm. This work takes a position on better understanding many equity concerns and the spread of misinformation that result from new AI, in this case, specifically ChatGPT and deepfakes, and encouraging collaboration with law enforcement, developers, and users to reduce harm. Considering many academic sources, it warns against these issues, analyzing their cause and impact in fields including healthcare, education, science, academia, retail, and finance. Lastly, we propose a set of future-facing guidelines and policy considerations to solve these issues while still enabling innovation in these fields, this responsibility falling upon users, developers, and government entities.
- Abstract(参考訳): 人工知能(AI)は新しい分野ではないが、近年の進歩、特にChatGPTのようなジェネレーティブツールのリリースによって、産業労働者や学術的な人々の心の前面に置かれている。
現在、AIと、自動化を通じて、私たちが知っている日々のプロセスを再形成する能力について、多くの話があります。
また、ユーザーは自分の考えのないものを自分で提案することでアイデアを拡大でき、情報へのアクセスが容易になる。
しかし、この技術がもたらす、あるいはこれまでにもたらしたすべての変化は肯定的ではなく、現代人がこれらのツールを使用する前にリスクを認識し、理解することが極めて重要であるのは、このためである。
今回の研究は、新しいAI、特にChatGPTとディープフェイクによる誤報の拡散に対する理解を深め、法執行機関や開発者、ユーザとのコラボレーションを奨励する役割を担っている。
多くの学術資料を踏まえると、医療、教育、科学、アカデミック、小売、金融などの分野におけるそれらの原因と影響を分析し、これらの問題に警告する。
最後に、これらの課題を解決しつつ、これらの分野のイノベーションを可能にしつつ、今後のガイドラインと政策に関する一連の考察を提案し、この責任はユーザー、開発者、政府機関に負う。
関連論文リスト
- Information Retrieval in the Age of Generative AI: The RGB Model [77.96475639967431]
本稿では,生成型AIツールの利用の増加に伴って生じる複雑な情報ダイナミクスについて,新たな定量的アプローチを提案する。
本稿では,新たなトピックに応答して情報の生成,索引付け,普及を特徴付けるモデルを提案する。
以上の結果から,AI導入の急激なペースとユーザ依存度の増加は,不正確な情報拡散のリスクを増大させる可能性が示唆された。
論文 参考訳(メタデータ) (2025-04-29T10:21:40Z) - Who is Responsible When AI Fails? Mapping Causes, Entities, and Consequences of AI Privacy and Ethical Incidents [29.070947259551478]
私たちは202の現実世界のAIプライバシと倫理的インシデントを分析しました。
これにより、AIライフサイクルステージにまたがるインシデントタイプを分類する分類が作成される。
原因、責任ある実体、開示源、影響などの文脈的要因を考慮に入れている。
論文 参考訳(メタデータ) (2025-03-28T21:57:38Z) - Analyzing User Perceptions of Large Language Models (LLMs) on Reddit: Sentiment and Topic Modeling of ChatGPT and DeepSeek Discussions [0.0]
本研究の目的は、感情モデルとトピックモデリングを用いて、ChatGPTとDeepSeekに関するRedditの議論を分析することである。
レポートは、ユーザーがこのテクノロジーを信じているかどうか、そして彼らが未来と見なしているものについて言及している。
論文 参考訳(メタデータ) (2025-02-22T17:00:42Z) - The Global Impact of AI-Artificial Intelligence: Recent Advances and
Future Directions, A Review [0.0]
この記事では、経済的、倫理的、社会的、セキュリティとプライバシ、仕事のずれといった、AIの影響を強調している。
偏見、セキュリティ、プライバシー侵害などの問題を含む、AI開発に関する倫理的懸念について論じている。
この記事は、社会全体にAIが及ぼす影響の認識と理解を促進するために、公的なエンゲージメントと教育の重要性を強調して締めくくっている。
論文 参考訳(メタデータ) (2023-12-22T00:41:21Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - Amplifying Limitations, Harms and Risks of Large Language Models [1.0152838128195467]
この記事は、人工知能に関する誇大広告の急増に対抗すべく、小さなジェスチャーとして紹介する。
また、この分野の外部の人たちが、AI技術の限界についてより深く知るのに役立つかもしれない。
論文 参考訳(メタデータ) (2023-07-06T11:53:45Z) - Redefining Relationships in Music [55.478320310047785]
私たちは、AIツールが音楽文化を根本的に変えてくれると論じています。
この分野で働く人々は、音楽の実践、消費、意味に対するネガティブな影響を減らすことができる。
論文 参考訳(メタデータ) (2022-12-13T19:44:32Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - The Short Anthropological Guide to the Study of Ethical AI [91.3755431537592]
ショートガイドは、AI倫理と社会科学の紹介と、AIの開発に関する人類学的視点の両方を兼ね備えている。
AIシステムの社会的影響と、これらのシステムがいかにして我々の世界がどのように機能するかを再考するかについての洞察を、この分野に馴染みのない人たちに提供することを目指している。
論文 参考訳(メタデータ) (2020-10-07T12:25:03Z) - The State of AI Ethics Report (June 2020) [0.0]
State of AI EthicsはモントリオールAI倫理研究所の四半期レポートである。
AI分野における談話、研究、開発の現状のパルスチェックを提供する。
このレポートでは、Agent and Responsibility, Security and Risk, Disinformation, Jobs and Labor, the Future of AI Ethicsなどを取り上げている。
論文 参考訳(メタデータ) (2020-06-25T19:00:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。