論文の概要: Rethinking Search: Making Experts out of Dilettantes
- arxiv url: http://arxiv.org/abs/2105.02274v1
- Date: Wed, 5 May 2021 18:40:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-08 02:54:19.380888
- Title: Rethinking Search: Making Experts out of Dilettantes
- Title(参考訳): 検索を再考する: 専門家をディレタントから外す
- Authors: Donald Metzler, Yi Tay, Dara Bahri, Marc Najork
- Abstract要約: 情報を必要とする場合、ユーザは専門家と関わりたがるが、検索エンジンのような情報検索システムに目を向けることが多い。
本稿では,古典的情報検索と大規模学習済み言語モデルからアイデアをいかに合成し,専門家の助言の約束を真に果たすシステムへと進化させるかを検討する。
- 参考スコア(独自算出の注目度): 55.90140165205178
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When experiencing an information need, users want to engage with an expert,
but often turn to an information retrieval system, such as a search engine,
instead. Classical information retrieval systems do not answer information
needs directly, but instead provide references to (hopefully authoritative)
answers. Successful question answering systems offer a limited corpus created
on-demand by human experts, which is neither timely nor scalable. Large
pre-trained language models, by contrast, are capable of directly generating
prose that may be responsive to an information need, but at present they are
dilettantes rather than experts - they do not have a true understanding of the
world, they are prone to hallucinating, and crucially they are incapable of
justifying their utterances by referring to supporting documents in the corpus
they were trained over. This paper examines how ideas from classical
information retrieval and large pre-trained language models can be synthesized
and evolved into systems that truly deliver on the promise of expert advice.
- Abstract(参考訳): 情報を必要とする場合、ユーザーは専門家と関わりたいが、代わりに検索エンジンのような情報検索システムに目を向けることが多い。
古典的な情報検索システムは、情報要求に直接答えるのではなく、(おそらく権威ある)回答への参照を提供する。
成功する質問応答システムは、人間の専門家がオンデマンドで作成する限定的なコーパスを提供する。
対照的に、大規模な事前学習された言語モデルは、情報ニーズに反応する可能性のある散文を直接生成することができるが、現時点では専門家ではなくディレタントである。
本稿では,従来の情報検索と大規模事前学習言語モデルのアイデアを,専門家のアドバイスを真に提供するシステムに合成し,進化させる方法について検討する。
関連論文リスト
- On the Biased Assessment of Expert Finding Systems [11.083396379885478]
大きな組織では、特定のトピックについて専門家を特定することが、チームや部門にまたがる内部知識を活用する上で非常に重要です。
このケーススタディでは、これらのレコメンデーションが専門家発見システムの評価に与える影響について分析する。
本稿では,システム検証アノテーションが従来の用語ベース検索モデルの性能過大評価につながることを示す。
また,同義語を用いた知識領域を拡大し,その構成語に対するリテラル言及に対する強い偏見を明らかにする。
論文 参考訳(メタデータ) (2024-10-07T13:19:08Z) - Explaining Expert Search and Team Formation Systems with ExES [8.573682949137085]
エキスパートサーチとチーム形成システムは、コラボレーションネットワークで動作する。
所望のスキルに対応するキーワードクエリが与えられた場合、これらのシステムはクエリに最も合う専門家を特定する。
本稿では,現実的および反現実的手法を用いて,エキスパート検索とチーム形成システムを説明するためのツールであるExESを提案する。
論文 参考訳(メタデータ) (2024-05-21T15:53:35Z) - Blending Reward Functions via Few Expert Demonstrations for Faithful and
Accurate Knowledge-Grounded Dialogue Generation [22.38338205905379]
我々は、新しい報酬関数を導入することで上記の課題を克服するために強化学習アルゴリズムを活用する。
我々の報奨関数は、精度測定値と忠実度測定値を組み合わせて、生成された応答のバランスの取れた品質判定を提供する。
論文 参考訳(メタデータ) (2023-11-02T02:42:41Z) - Self-Knowledge Guided Retrieval Augmentation for Large Language Models [59.771098292611846]
大規模言語モデル(LLM)はタスク固有の微調整なしで優れた性能を示す。
検索に基づく手法は、非パラメトリックな世界知識を提供し、質問応答のようなタスクのパフォーマンスを向上させることができる。
SKR(Self-Knowledge guided Retrieval augmentation)は、LLMがこれまで遭遇した質問を参照できるようにする、シンプルで効果的な方法である。
論文 参考訳(メタデータ) (2023-10-08T04:22:33Z) - Large Language Models for Information Retrieval: A Survey [58.30439850203101]
情報検索は、項ベースの手法から高度なニューラルモデルとの統合へと進化してきた。
近年の研究では、大規模言語モデル(LLM)を活用してIRシステムの改善が試みられている。
LLMとIRシステムの合流点を探索し、クエリリライト、リトリバー、リランカー、リーダーといった重要な側面を含む。
論文 参考訳(メタデータ) (2023-08-14T12:47:22Z) - Can Pre-trained Vision and Language Models Answer Visual
Information-Seeking Questions? [50.29862466940209]
情報検索に適した視覚的質問応答データセットであるInfoSeekを紹介する。
事前学習した様々な視覚的質問応答モデルを分析し,その特徴について考察する。
関連文書を検索することでInfoSeekの性能を向上させるために,正確な視覚的実体認識が利用できることを示す。
論文 参考訳(メタデータ) (2023-02-23T00:33:54Z) - Design Challenges for a Multi-Perspective Search Engine [44.48345943046946]
我々は、新しい視点指向文書検索パラダイムについて研究する。
目的を達成するために,自然言語理解の課題を議論し,評価する。
我々は,プロトタイプシステムを用いて,我々のパラダイムの有用性を評価する。
論文 参考訳(メタデータ) (2021-12-15T18:59:57Z) - Retrieval-Free Knowledge-Grounded Dialogue Response Generation with
Adapters [52.725200145600624]
軽量アダプタで事前学習した言語モデルに事前知識を注入し、検索プロセスをバイパスする KnowExpert を提案する。
実験結果から,KnowExpertは検索ベースラインと相容れない性能を示した。
論文 参考訳(メタデータ) (2021-05-13T12:33:23Z) - How Context Affects Language Models' Factual Predictions [134.29166998377187]
検索システムからの情報を学習済みの言語モデルと純粋に教師なしの方法で統合する。
この方法で事前学習された言語モデルを拡張することで、性能が劇的に向上し、教師なしにもかかわらず、結果として得られるシステムは、教師なしの機械読解ベースラインと競合する、と報告する。
論文 参考訳(メタデータ) (2020-05-10T09:28:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。