論文の概要: Interactions with Generative Information Retrieval Systems
- arxiv url: http://arxiv.org/abs/2407.11605v1
- Date: Tue, 16 Jul 2024 11:12:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 19:46:11.117130
- Title: Interactions with Generative Information Retrieval Systems
- Title(参考訳): 生成情報検索システムとのインタラクション
- Authors: Mohammad Aliannejadi, Jacek Gwizdka, Hamed Zamani,
- Abstract要約: 既存の検索エンジンでは、インタラクションはいくつかの事前定義されたアクションに限られている。
生成IRシステムへ移行する大きな利点は、情報ニーズとフィードバックの豊かな表現をユーザに提供することである。
本章では、生成IRシステムにおける相互作用の役割について概説する。
- 参考スコア(独自算出の注目度): 25.099838151543878
- License:
- Abstract: At its core, information access and seeking is an interactive process. In existing search engines, interactions are limited to a few pre-defined actions, such as "requery", "click on a document", "scrolling up/down", "going to the next result page", "leaving the search engine", etc. A major benefit of moving towards generative IR systems is enabling users with a richer expression of information need and feedback and free-form interactions in natural language and beyond. In other words, the actions users take are no longer limited by the clickable links and buttons available on the search engine result page and users can express themselves freely through natural language. This can go even beyond natural language, through images, videos, gestures, and sensors using multi-modal generative IR systems. This chapter briefly discusses the role of interaction in generative IR systems. We will first discuss different ways users can express their information needs by interacting with generative IR systems. We then explain how users can provide explicit or implicit feedback to generative IR systems and how they can consume such feedback. Next, we will cover how users interactively can refine retrieval results. We will expand upon mixed-initiative interactions and discuss clarification and preference elicitation in more detail. We then discuss proactive generative IR systems, including context-aware recommendation, following up past conversations, contributing to multi-party conversations, and feedback requests. Providing explanation is another interaction type that we briefly discuss in this chapter. We will also briefly describe multi-modal interactions in generative information retrieval. Finally, we describe emerging frameworks and solutions for user interfaces with generative AI systems.
- Abstract(参考訳): その中核は、情報アクセスと検索は対話的なプロセスである。
既存の検索エンジンでは、インタラクションは、"requery"、"Click on a document"、"scrolling up/down"、"going to the next result page"、"Leaving the search engine"など、定義済みのアクションに制限されている。
生成IRシステムへ移行する大きな利点は、自然言語などにおける情報要求とフィードバック、自由形式の相互作用の豊かな表現をユーザに提供することである。
言い換えれば、ユーザーが取るアクションは、検索エンジンの結果ページにあるクリック可能なリンクやボタンによって制限されず、ユーザーは自然言語で自由に表現できる。
これは、画像、ビデオ、ジェスチャー、そしてマルチモーダル生成IRシステムを使ったセンサーを通じて、自然言語を超えても行くことができる。
本章では、生成IRシステムにおける相互作用の役割について概説する。
まず、ユーザが生成IRシステムと対話することで、情報ニーズを表現できるさまざまな方法について議論する。
次に、ユーザが生成IRシステムに対して明示的あるいは暗黙的なフィードバックを提供する方法と、そのようなフィードバックを消費する方法を説明します。
次に,ユーザがインタラクティブに検索結果を洗練する方法について述べる。
我々は、混合開始的相互作用を拡張し、より詳細で明確化と嗜好誘発について議論する。
次に、文脈認識による推薦、過去の会話のフォロー、多人数会話へのコントリビューション、フィードバック要求など、プロアクティブな生成IRシステムについて議論する。
説明を提供することは、この章で簡単に論じるもう一つの相互作用タイプです。
また、生成情報検索におけるマルチモーダル相互作用についても簡潔に述べる。
最後に、生成AIシステムを用いたユーザインタフェースのための新しいフレームワークとソリューションについて述べる。
関連論文リスト
- A Survey of Conversational Search [44.09402706387407]
会話検索における最近の進歩と今後の方向性について検討する。
これらのシステムの拡張において,大規模言語モデル(LLM)の統合を強調した。
我々は,現実のアプリケーションに対する洞察と,現在の対話型検索システムの堅牢な評価を提供する。
論文 参考訳(メタデータ) (2024-10-21T01:54:46Z) - Engineering Conversational Search Systems: A Review of Applications, Architectures, and Functional Components [4.262342157729123]
本研究では,対話型検索システムの理論的研究と技術的実装の関連について検討する。
階層型アーキテクチャフレームワークを提案し,対話型検索システムの中核機能について説明する。
我々は,大規模言語モデルの急速な進歩を踏まえ,その能力,限界,今後の研究の方向性について考察する。
論文 参考訳(メタデータ) (2024-07-01T06:24:11Z) - Agent AI: Surveying the Horizons of Multimodal Interaction [83.18367129924997]
エージェントAI(Agent AI)とは、視覚刺激や言語入力、その他の環境データを知覚できる対話型システムである。
我々は,バーチャルリアリティやシミュレートされたシーンを容易に作成し,仮想環境内に具体化されたエージェントと対話できる未来を構想する。
論文 参考訳(メタデータ) (2024-01-07T19:11:18Z) - A Contextualized Real-Time Multimodal Emotion Recognition for
Conversational Agents using Graph Convolutional Networks in Reinforcement
Learning [0.800062359410795]
強化学習(conER-GRL)を用いたグラフ畳み込みネットワークを用いた文脈的感情認識のための新しいパラダイムを提案する。
会話は、文脈情報の効果的な抽出のために、発話の小さなグループに分割される。
このシステムは、GRU(Gated Recurrent Units)を用いて、これらの発話群からマルチモーダル特徴を抽出する。
論文 参考訳(メタデータ) (2023-10-24T14:31:17Z) - Social Commonsense-Guided Search Query Generation for Open-Domain
Knowledge-Powered Conversations [66.16863141262506]
本稿では,ソーシャルコモンセンスによってガイドされたインターネット検索クエリ生成に焦点を当てた新しいアプローチを提案する。
提案フレームワークは,トピックトラッキング,コモンセンス応答生成,命令駆動クエリ生成を統合することで,受動的ユーザインタラクションに対処する。
論文 参考訳(メタデータ) (2023-10-22T16:14:56Z) - Large Language Models for Information Retrieval: A Survey [58.30439850203101]
情報検索は、項ベースの手法から高度なニューラルモデルとの統合へと進化してきた。
近年の研究では、大規模言語モデル(LLM)を活用してIRシステムの改善が試みられている。
LLMとIRシステムの合流点を探索し、クエリリライト、リトリバー、リランカー、リーダーといった重要な側面を含む。
論文 参考訳(メタデータ) (2023-08-14T12:47:22Z) - Enabling Harmonious Human-Machine Interaction with Visual-Context
Augmented Dialogue System: A Review [40.49926141538684]
Visual Context Augmented Dialogue System (VAD) は、マルチモーダル情報を知覚し理解することで人間とコミュニケーションする能力を持つ。
VADは、エンゲージメントとコンテキスト対応の応答を生成する可能性を秘めている。
論文 参考訳(メタデータ) (2022-07-02T09:31:37Z) - Neural Approaches to Conversational Information Retrieval [94.77863916314979]
会話情報検索(CIR)システムは、会話インタフェースを備えた情報検索(IR)システムである。
近年のディープラーニングの進歩により、自然言語処理(NLP)と会話型AIが大幅に改善されている。
この本は、ここ数年で開発された神経アプローチに焦点を当てた、CIRの最近の進歩を調査します。
論文 参考訳(メタデータ) (2022-01-13T19:04:59Z) - An Adversarial Learning based Multi-Step Spoken Language Understanding
System through Human-Computer Interaction [70.25183730482915]
対戦型学習に基づく多段階音声言語理解システムを提案する。
我々は,F1の観点で解析性能を少なくとも2.5%向上させることを実証した。
論文 参考訳(メタデータ) (2021-06-06T03:46:53Z) - Advances and Challenges in Conversational Recommender Systems: A Survey [133.93908165922804]
現在の会話レコメンダーシステム(CRS)で使用されるテクニックの体系的なレビューを提供します。
CRS開発の主な課題を5つの方向にまとめます。
これらの研究の方向性は、情報検索(IR)、自然言語処理(NLP)、人間とコンピュータの相互作用(HCI)などの複数の研究分野を含みます。
論文 参考訳(メタデータ) (2021-01-23T08:53:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。