論文の概要: Reading with Intent -- Neutralizing Intent
- arxiv url: http://arxiv.org/abs/2501.03475v1
- Date: Tue, 07 Jan 2025 02:33:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-08 15:50:57.073860
- Title: Reading with Intent -- Neutralizing Intent
- Title(参考訳): インテントで読む-中性化インテント
- Authors: Benjamin Reichman, Adar Avsian, Larry Heck,
- Abstract要約: ほとんどのベンチマークでは、Wikipediaのようなテキストは中立的で事実的なトーンで書かれている。
RAGシステムはインターネットベースのコンテンツを検索すると、様々なトーンと言語スタイルのテキストに遭遇する。
Intentタスクによる読み上げは、コンテキストパスのさまざまなトーンがモデルパフォーマンスにどのように影響するかを評価することでこの問題に対処する。
- 参考スコア(独自算出の注目度): 1.7614751781649955
- License:
- Abstract: Queries to large language models (LLMs) can be divided into two parts: the instruction/question and the accompanying context. The context for retrieval-augmented generation (RAG) systems in most benchmarks comes from Wikipedia or Wikipedia-like texts which are written in a neutral and factual tone. However, when RAG systems retrieve internet-based content, they encounter text with diverse tones and linguistic styles, introducing challenges for downstream tasks. The Reading with Intent task addresses this issue by evaluating how varying tones in context passages affect model performance. Building on prior work that focused on sarcasm, we extend this paradigm by constructing a dataset where context passages are transformed to $11$ distinct emotions using a better synthetic data generation approach. Using this dataset, we train an emotion translation model to systematically adapt passages to specified emotional tones. The human evaluation shows that the LLM fine-tuned to become the emotion-translator benefited from the synthetically generated data. Finally, the emotion-translator is used in the Reading with Intent task to transform the passages to a neutral tone. By neutralizing the passages, it mitigates the challenges posed by sarcastic passages and improves overall results on this task by about $3\%$.
- Abstract(参考訳): 大規模言語モデル(LLM)へのクエリは、命令/問い合わせと関連するコンテキストの2つの部分に分けられる。
ほとんどのベンチマークにおける検索拡張生成システム(RAG)のコンテキストは、中立的で事実的なトーンで書かれたウィキペディアやウィキペディア風のテキストから来ている。
しかし、RAGシステムはインターネットベースのコンテンツを検索すると、様々なトーンと言語スタイルのテキストに遭遇し、下流タスクの課題を提起する。
Intentタスクによる読み上げは、コンテキストパスのさまざまなトーンがモデルパフォーマンスにどのように影響するかを評価することでこの問題に対処する。
サルカズムに焦点を当てた事前の作業に基づいて、より優れた合成データ生成アプローチを使用して、コンテキストパスを11ドルの異なる感情に変換するデータセットを構築することで、このパラダイムを拡張します。
このデータセットを用いて感情翻訳モデルを訓練し、特定の感情のトーンにパッセージを体系的に適応させる。
ヒトの評価では、LLMが合成されたデータから得られる感情伝達体となるように微調整されたことが示されている。
最後に、感情伝達器はReading with Intentタスクで、パスを中立的なトーンに変換するために使用される。
通過を中和することで、サーカシックな通過によって生じる課題を緩和し、このタスクの全体的な結果を約$3\%改善する。
関連論文リスト
- Detecting Document-level Paraphrased Machine Generated Content: Mimicking Human Writing Style and Involving Discourse Features [57.34477506004105]
機械生成コンテンツは、学術プラジャリズムや誤報の拡散といった課題を提起する。
これらの課題を克服するために、新しい方法論とデータセットを導入します。
人間の筆記スタイルをエミュレートするエンコーダデコーダモデルであるMhBARTを提案する。
また,PDTB前処理による談話解析を統合し,構造的特徴を符号化するモデルであるDTransformerを提案する。
論文 参考訳(メタデータ) (2024-12-17T08:47:41Z) - Reading with Intent [7.623508712778745]
オープンインターネットを知識源として依存するRAGシステムは、人間が生成するコンテンツの複雑さと競合する必要がある。
本稿では,サルカズムの存在下での応答の解釈・生成能力を高めるプロンプトシステムを提案する。
論文 参考訳(メタデータ) (2024-08-20T20:47:27Z) - VLLMs Provide Better Context for Emotion Understanding Through Common Sense Reasoning [66.23296689828152]
我々は、視覚・言語モデルの機能を活用し、文脈内感情分類を強化する。
第1段階では、VLLMが対象者の明らかな感情の自然言語で記述を生成できるように促すことを提案する。
第2段階では、記述を文脈情報として使用し、画像入力とともに、トランスフォーマーベースのアーキテクチャのトレーニングに使用する。
論文 参考訳(メタデータ) (2024-04-10T15:09:15Z) - Thread of Thought Unraveling Chaotic Contexts [133.24935874034782]
思考のスレッド(ThoT)戦略は、人間の認知プロセスからインスピレーションを得ている。
実験では、他のプロンプト技術と比較して、ThoTは推論性能を著しく改善する。
論文 参考訳(メタデータ) (2023-11-15T06:54:44Z) - Context Unlocks Emotions: Text-based Emotion Classification Dataset
Auditing with Large Language Models [23.670143829183104]
テキストデータに文脈情報がないため、テキストベースの感情分類データセットのアノテーションプロセスは困難である。
本稿では,このような文脈情報を強化するための促進戦略を動機付けるために,テキストコンテキストの形式的定義を提案する。
提案手法は, 経験的, 人的評価的両面から, 入力と人的アノテートラベルのアライメントを改善する。
論文 参考訳(メタデータ) (2023-11-06T21:34:49Z) - Cross-modality Data Augmentation for End-to-End Sign Language Translation [66.46877279084083]
エンドツーエンド手話翻訳(SLT)は、手話動画を中間表現なしで直接音声言語テキストに変換することを目的としている。
署名ビデオとテキスト間のモダリティのギャップとラベル付きデータの不足のため、これは難しい課題だった。
本稿では,強力な光沢からテキストへの翻訳機能をエンドツーエンドの手話翻訳に変換するための,新しいクロスモダリティデータ拡張(XmDA)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-18T16:34:18Z) - Self-supervised Context-aware Style Representation for Expressive Speech
Synthesis [23.460258571431414]
本稿では,平文からスタイル表現を自己教師型で学習するための新しいフレームワークを提案する。
感情のレキシコンを活用し、対照的な学習と深いクラスタリングを使用する。
本手法は,音声ブック音声におけるドメイン内およびドメイン外テストセットの主観的評価に基づいて,改善された結果を実現する。
論文 参考訳(メタデータ) (2022-06-25T05:29:48Z) - Textless Speech Emotion Conversion using Decomposed and Discrete
Representations [49.55101900501656]
我々は、音声を、コンテンツ単位、F0、話者、感情からなる離散的、非絡み合いの学習表現に分解する。
まず、内容単位を対象の感情に翻訳し、その単位に基づいて韻律的特徴を予測することによって、音声内容を変更する。
最後に、予測された表現をニューラルボコーダに入力して音声波形を生成する。
論文 参考訳(メタデータ) (2021-11-14T18:16:42Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - IIT Gandhinagar at SemEval-2020 Task 9: Code-Mixed Sentiment
Classification Using Candidate Sentence Generation and Selection [1.2301855531996841]
コードミキシングは、非標準の書き込みスタイルのためにテキストの感情を分析することの難しさを増す。
本稿では,Bi-LSTMに基づくニューラル分類器上での文生成と選択に基づく提案手法を提案する。
提案手法は,Bi-LSTMに基づくニューラル分類器と比較して,システム性能の向上を示す。
論文 参考訳(メタデータ) (2020-06-25T14:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。