論文の概要: Emotional RAG LLMs: Reading Comprehension for the Open Internet
- arxiv url: http://arxiv.org/abs/2408.11189v2
- Date: Sun, 29 Jun 2025 19:13:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.369978
- Title: Emotional RAG LLMs: Reading Comprehension for the Open Internet
- Title(参考訳): Emotional RAG LLMs: オープンインターネットの理解を読む
- Authors: Benjamin Reichman, Adar Avsian, Kartik Talamadupula, Toshish Jawale, Larry Heck,
- Abstract要約: 本稿では, (a) RAGから取得した節を感情的に表現された, 皮肉なテキストに変換するデータセット, (b) テキストを異なる音色に適応させる感情翻訳モデル, (c) LLMの現実的なテキスト解釈を改善するためのプロンプトベースの手法を紹介する。
- 参考スコア(独自算出の注目度): 7.105874504674808
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Queries to large language models (LLMs) can be divided into two parts: the instruction/question and the accompanying context. The context for retrieval-augmented generation (RAG) systems in most benchmarks comes from Wikipedia-like texts written in a neutral and factual tone. However, real-world RAG applications often retrieve internet-based text with diverse tones and linguistic styles, posing challenges for downstream tasks. This paper introduces (a) a dataset that transforms RAG-retrieved passages into emotionally inflected and sarcastic text, (b) an emotion translation model for adapting text to different tones, and (c) a prompt-based method to improve LLMs' pragmatic interpretation of retrieved text.
- Abstract(参考訳): 大規模言語モデル(LLM)へのクエリは、命令/問い合わせと関連するコンテキストの2つの部分に分けられる。
ほとんどのベンチマークにおける検索拡張生成システム(RAG)のコンテキストは、中立的で事実的なトーンで書かれたウィキペディア風のテキストから来ている。
しかしながら、実世界のRAGアプリケーションは、様々なトーンと言語スタイルのインターネットベースのテキストを検索し、下流タスクの課題を提起することが多い。
本論の紹介
(a)RAG検索された節を情緒的・情緒的・皮肉的テキストに変換するデータセット
(b)異なる音へのテキスト適応のための感情翻訳モデル、及び
(c) 検索したテキストの実用的解釈を改善するためのプロンプトベースの手法。
関連論文リスト
- Reading with Intent -- Neutralizing Intent [1.7614751781649955]
ほとんどのベンチマークでは、Wikipediaのようなテキストは中立的で事実的なトーンで書かれている。
RAGシステムはインターネットベースのコンテンツを検索すると、様々なトーンと言語スタイルのテキストに遭遇する。
Intentタスクによる読み上げは、コンテキストパスのさまざまなトーンがモデルパフォーマンスにどのように影響するかを評価することでこの問題に対処する。
論文 参考訳(メタデータ) (2025-01-07T02:33:25Z) - GeAR: Generation Augmented Retrieval [82.20696567697016]
文書検索技術は大規模情報システム開発の基礎となる。
一般的な手法は、バイエンコーダを構築し、セマンティックな類似性を計算することである。
我々は、よく設計された融合およびデコードモジュールを組み込んだ $textbfGe$neration という新しい手法を提案する。
論文 参考訳(メタデータ) (2025-01-06T05:29:00Z) - Enhancing Rhetorical Figure Annotation: An Ontology-Based Web Application with RAG Integration [0.6372911857214884]
ファイド・ユー・フィギュア (Find your Figure) というウェブアプリケーションを開発した。
ドイツの修辞的人物の識別と注釈を容易にする。
さらに、検索生成(RAG)によるユーザエクスペリエンスの向上も行います。
論文 参考訳(メタデータ) (2024-12-18T12:45:55Z) - Semantic Tokens in Retrieval Augmented Generation [0.0]
本稿では,確率的RAGシステムと決定論的に検証可能な応答のギャップを埋めるための評価モジュールを導入した新しい比較RAGシステムを提案する。
このフレームワークは、高い精度と検証可能性を必要とする領域において、より信頼性が高くスケーラブルな質問応答アプリケーションを実現する。
論文 参考訳(メタデータ) (2024-12-03T16:52:06Z) - Embodied-RAG: General Non-parametric Embodied Memory for Retrieval and Generation [65.23793829741014]
Embodied-RAGは、非パラメトリックメモリシステムによるエンボディエージェントのモデルを強化するフレームワークである。
コアとなるEmbodied-RAGのメモリはセマンティックフォレストとして構成され、言語記述を様々なレベルで詳細に保存する。
Embodied-RAGがRAGをロボット領域に効果的にブリッジし、200以上の説明とナビゲーションクエリをうまく処理できることを実証する。
論文 参考訳(メタデータ) (2024-09-26T21:44:11Z) - A Hybrid RAG System with Comprehensive Enhancement on Complex Reasoning [13.112610550392537]
Retrieval-augmented Generation (RAG) は、大規模言語モデルでその精度を高め、外部知識ベースを統合することで幻覚を低減できるフレームワークである。
本稿では,検索品質,拡張推論能力,精巧な数値能力など,総合的な最適化によって強化されたハイブリッドRAGシステムを提案する。
論文 参考訳(メタデータ) (2024-08-09T15:53:55Z) - Seven Failure Points When Engineering a Retrieval Augmented Generation
System [1.8776685617612472]
RAGシステムは,大規模言語モデルからの幻覚応答の問題を解決することを目的としている。
RAGシステムは情報検索システム固有の制限に悩まされている。
本稿では3つのケーススタディからRAGシステムの故障点について報告する。
論文 参考訳(メタデータ) (2024-01-11T12:04:11Z) - Large Language Models for Information Retrieval: A Survey [58.30439850203101]
情報検索は、項ベースの手法から高度なニューラルモデルとの統合へと進化してきた。
近年の研究では、大規模言語モデル(LLM)を活用してIRシステムの改善が試みられている。
LLMとIRシステムの合流点を探索し、クエリリライト、リトリバー、リランカー、リーダーといった重要な側面を含む。
論文 参考訳(メタデータ) (2023-08-14T12:47:22Z) - A Vector Quantized Approach for Text to Speech Synthesis on Real-World
Spontaneous Speech [94.64927912924087]
我々は、YouTubeやポッドキャストから現実の音声を使ってTSシステムを訓練する。
最近のText-to-Speechアーキテクチャは、複数のコード生成とモノトニックアライメントのために設計されている。
近年のテキスト・トゥ・スペーチ・アーキテクチャは,いくつかの客観的・主観的尺度において,既存のTSシステムより優れていることを示す。
論文 参考訳(メタデータ) (2023-02-08T17:34:32Z) - How to Describe Images in a More Funny Way? Towards a Modular Approach
to Cross-Modal Sarcasm Generation [62.89586083449108]
本稿では,CMSG(Cross-modal sarcasm Generation)の新たな問題,すなわち,与えられた画像に対してサーカシックな記述を生成することについて検討する。
CMSGは、異なるモード間の相関だけでなく、サルカズムの特性をモデルが満たさなければならないため、困難である。
クロスモデルサルカズム生成のための抽出・生成・生成に基づくモジュール法(EGRM)を提案する。
論文 参考訳(メタデータ) (2022-11-20T14:38:24Z) - A Survey on Automated Sarcasm Detection on Twitter [0.0]
短いテキストメッセージは、特にTwitterのようなソーシャルメディアプラットフォーム上でのコミュニケーションにますます利用されている。
これらのメッセージの統一された皮肉は、文の意味を逆転させ、混乱とコミュニケーションの失敗につながる。
本稿では,文脈による検出,投稿履歴,機械学習モデルなど,現在使われているさまざまな手法について述べる。
論文 参考訳(メタデータ) (2022-02-05T08:38:38Z) - Addressing Issues of Cross-Linguality in Open-Retrieval Question
Answering Systems For Emergent Domains [67.99403521976058]
新型コロナウイルスの緊急ドメインに対する言語横断的オープン検索型質問応答システムについて紹介する。
本システムでは,検索した文書の信頼性を確保するために,学術論文のコーパスを採用している。
深いセマンティック・レトリバーは、我々の英語からすべてのデータに対するトレーニングの恩恵が大きく、言語横断環境ではBM25ベースラインを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-01-26T19:27:32Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - Sarcasm Detection using Context Separators in Online Discourse [3.655021726150369]
サルカズム(Sarcasm)は、意味が暗黙的に伝えられる複雑な形態の言語である。
本研究では,RoBERTa_largeを用いて2つのデータセットの皮肉を検出する。
また,文脈単語埋め込みモデルの性能向上における文脈の重要性を主張する。
論文 参考訳(メタデータ) (2020-06-01T10:52:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。