論文の概要: Search Engines Post-ChatGPT: How Generative Artificial Intelligence
Could Make Search Less Reliable
- arxiv url: http://arxiv.org/abs/2402.11707v1
- Date: Sun, 18 Feb 2024 21:10:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 19:17:43.388799
- Title: Search Engines Post-ChatGPT: How Generative Artificial Intelligence
Could Make Search Less Reliable
- Title(参考訳): 検索エンジンのChatGPT: ジェネレーティブな人工知能が検索の信頼性を損なう
- Authors: Shahan Ali Memon, Jevin D. West
- Abstract要約: 我々は、生成人工知能(GenAI)が生成したコンテンツを生成、インデックス化、配布し始めるにつれて、検索エンジンの進化する性質について議論する。
我々の議論は、GenAI統合の初期段階、特に事実上の矛盾とバイアスに関する課題を強調します。
- 参考スコア(独自算出の注目度): 2.7557703490816268
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this commentary, we discuss the evolving nature of search engines, as they
begin to generate, index, and distribute content created by generative
artificial intelligence (GenAI). Our discussion highlights challenges in the
early stages of GenAI integration, particularly around factual inconsistencies
and biases. We discuss how output from GenAI carries an unwarranted sense of
credibility, while decreasing transparency and sourcing ability. Furthermore,
search engines are already answering queries with error-laden, generated
content, further blurring the provenance of information and impacting the
integrity of the information ecosystem. We argue how all these factors could
reduce the reliability of search engines. Finally, we summarize some of the
active research directions and open questions.
- Abstract(参考訳): 本稿では,生成人工知能(GenAI)が生成したコンテンツを生成,インデックス化,配信し始める中で,検索エンジンの進化する性質について論じる。
我々の議論は、GenAI統合の初期段階、特に事実上の矛盾とバイアスに関する課題を強調します。
我々は, 透明性とソーシング能力の低下を伴いながら, ジェナイからの出力が不当な信頼感をもたらすかについて議論する。
さらに、検索エンジンは、すでにエラーの少ない、生成されたコンテンツでクエリに答えており、情報の証明をさらに曖昧にし、情報のエコシステムの完全性に影響を与える。
これらの要因が検索エンジンの信頼性を低下させるのか議論する。
最後に、活発な研究の方向性とオープンな質問について要約する。
関連論文リスト
- "So what if I used GenAI?" -- Implications of Using Cloud-based GenAI in Software Engineering Research [0.0]
本論文は、GenAIが用いられている様々な研究の側面に光を当て、その法的な意味を初心者や芽生えの研究者に認識させるものである。
我々は、GenAIを使用するすべてのソフトウェア研究者が、責任の主張を暴露する重大なミスを避けるために意識すべきであるという現在の知識について、重要な側面を要約する。
論文 参考訳(メタデータ) (2024-12-10T06:18:15Z) - Exploring AI Text Generation, Retrieval-Augmented Generation, and Detection Technologies: a Comprehensive Overview [0.0]
独創性、偏見、誤情報、説明責任などの問題を含む、AI生成コンテンツを取り巻く懸念が顕在化している。
本稿では、AIテキストジェネレータ(AITG)の進化、能力、倫理的意味を概観する。
本稿では,検出精度の向上,倫理的AI開発支援,アクセシビリティ向上に向けた今後の方向性について検討する。
論文 参考訳(メタデータ) (2024-12-05T07:23:14Z) - SoK: Watermarking for AI-Generated Content [112.9218881276487]
ウォーターマーキングスキームは、AI生成コンテンツに隠された信号を埋め込んで、信頼性の高い検出を可能にする。
透かしは、誤情報や偽造と戦ってAIの安全性と信頼性を高める上で重要な役割を果たす。
本研究の目的は、研究者が透かし法や応用の進歩を指導し、GenAIの幅広い意味に対処する政策立案者を支援することである。
論文 参考訳(メタデータ) (2024-11-27T16:22:33Z) - Explainable Generative AI (GenXAI): A Survey, Conceptualization, and Research Agenda [1.8592384822257952]
我々は、XAIがGenAIの台頭とともに重要になった理由とその説明可能性研究の課題について詳述する。
私たちはまた、検証可能性、対話性、セキュリティ、コストといった側面をカバーし、説明が満たすべき新しいデシラタも披露します。
論文 参考訳(メタデータ) (2024-04-15T08:18:16Z) - Evaluating Robustness of Generative Search Engine on Adversarial Factual Questions [89.35345649303451]
生成検索エンジンは、人々がオンラインで情報を求める方法を変える可能性を秘めている。
しかし,既存の大規模言語モデル(LLM)が支援する生成検索エンジンからの応答は必ずしも正確ではない。
検索強化世代は、敵がシステム全体を回避できるため、安全上の懸念を増す。
論文 参考訳(メタデータ) (2024-02-25T11:22:19Z) - Prompt Smells: An Omen for Undesirable Generative AI Outputs [4.105236597768038]
我々は、GenAIモデルの適用に関する制約に対処する上で、研究コミュニティに役立つ2つの新しい概念を提案する。
まず、GenAI出力の「望ましさ」の定義と、それに影響を与える3つの要因について述べる。
第2に、Martin Fowler氏のコードの臭いからインスピレーションを得た上で、我々は「急激な臭い」の概念と、それらがGenAI出力の嫌悪性に与える影響について提案する。
論文 参考訳(メタデータ) (2024-01-23T10:10:01Z) - Towards Possibilities & Impossibilities of AI-generated Text Detection:
A Survey [97.33926242130732]
大規模言語モデル(LLM)は、自然言語処理(NLP)の領域に革命をもたらし、人間のようなテキスト応答を生成する能力を持つ。
これらの進歩にもかかわらず、既存の文献のいくつかは、LLMの潜在的な誤用について深刻な懸念を提起している。
これらの懸念に対処するために、研究コミュニティのコンセンサスは、AI生成テキストを検出するアルゴリズムソリューションを開発することである。
論文 参考訳(メタデータ) (2023-10-23T18:11:32Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - A Comprehensive Survey of AI-Generated Content (AIGC): A History of
Generative AI from GAN to ChatGPT [63.58711128819828]
ChatGPTおよびその他の生成AI(GAI)技術は、人工知能生成コンテンツ(AIGC)のカテゴリに属している。
AIGCの目標は、コンテンツ作成プロセスをより効率的かつアクセスしやすくし、高品質なコンテンツをより高速に生産できるようにすることである。
論文 参考訳(メタデータ) (2023-03-07T20:36:13Z) - Empowering Things with Intelligence: A Survey of the Progress,
Challenges, and Opportunities in Artificial Intelligence of Things [98.10037444792444]
AIがIoTをより速く、より賢く、よりグリーンで、より安全にするための力を与える方法を示します。
まず、認識、学習、推論、行動の4つの視点から、IoTのためのAI研究の進歩を示す。
最後に、私たちの世界を深く再形成する可能性が高いAIoTの有望な応用をいくつかまとめる。
論文 参考訳(メタデータ) (2020-11-17T13:14:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。