論文の概要: Understanding and Supporting Formal Email Exchange by Answering AI-Generated Questions
- arxiv url: http://arxiv.org/abs/2502.03804v2
- Date: Fri, 07 Feb 2025 02:45:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 11:34:23.513401
- Title: Understanding and Supporting Formal Email Exchange by Answering AI-Generated Questions
- Title(参考訳): AIによる質問への回答による形式的電子メール交換の理解と支援
- Authors: Yusuke Miura, Chi-Lan Yang, Masaki Kuribayashi, Keigo Matsumoto, Hideaki Kuzuoka, Shigeo Morishima,
- Abstract要約: 電子メールに返信するためのQAベースのアプローチを提案し,評価する。
試作システムであるResQを開発し,12と8人の参加者を対象に制御およびフィールド実験を行った。
その結果,QAベースの手法によりメール応答効率が向上し,作業負荷の低減が図られた。
- 参考スコア(独自算出の注目度): 14.920762730733632
- License:
- Abstract: Replying to formal emails is time-consuming and cognitively demanding, as it requires crafting polite phrasing and providing an adequate response to the sender's demands. Although systems with Large Language Models (LLMs) were designed to simplify the email replying process, users still need to provide detailed prompts to obtain the expected output. Therefore, we proposed and evaluated an LLM-powered question-and-answer (QA)-based approach for users to reply to emails by answering a set of simple and short questions generated from the incoming email. We developed a prototype system, ResQ, and conducted controlled and field experiments with 12 and 8 participants. Our results demonstrated that the QA-based approach improves the efficiency of replying to emails and reduces workload while maintaining email quality, compared to a conventional prompt-based approach that requires users to craft appropriate prompts to obtain email drafts. We discuss how the QA-based approach influences the email reply process and interpersonal relationship dynamics, as well as the opportunities and challenges associated with using a QA-based approach in AI-mediated communication.
- Abstract(参考訳): 正式なメールへの返信は、丁寧な言い回しを作らなければならず、送信者の要求に対する適切な応答を提供するため、時間がかかり、認知的に要求される。
LLM(Large Language Models)は電子メールの返信処理を簡略化するために設計されたシステムであるが、ユーザが期待する出力を得るためには、詳細なプロンプトを提供する必要がある。
そこで本研究では,LLM を利用した質問応答方式 (QA) の提案と評価を行った。
試作システムであるResQを開発し,12と8人の参加者を対象に制御およびフィールド実験を行った。
その結果,従来のプロンプトベースのアプローチでは,電子メールのドラフト取得に適切なプロンプトを作成すべきであったのに対し,QAベースのアプローチは電子メールの返信効率を向上し,メール品質を維持しながら作業負荷を削減できることがわかった。
我々は、QAベースのアプローチが電子メールの返信プロセスや対人関係のダイナミクスにどのように影響するか、またAIによるコミュニケーションにおいてQAベースのアプローチを使用する機会と課題について議論する。
関連論文リスト
- Putting People in LLMs' Shoes: Generating Better Answers via Question Rewriter [17.736962215696366]
本稿では,単一ラウンドのインスタンスレベルのプロンプト最適化について述べる。
ブラックボックスLSMに対する人間の質問の信頼性を高めることにより、質問書き直しは生成した回答の品質を向上させる。
論文 参考訳(メタデータ) (2024-08-20T06:24:47Z) - Improving Ontology Requirements Engineering with OntoChat and Participatory Prompting [3.3241053483599563]
OREは主に、ドメインの専門家からユーザ要求を集めるために、インタビューや共同フォーラムのような手動の手法に依存しています。
Current OntoChatは,大規模な言語モデル(LLM)を使用してプロセスを合理化するための,ORE用のフレームワークを提供する。
本研究は,ユーザストーリのペルソナ,目標,シナリオ,サンプルデータ,データリソースの作成と精錬に重点を置いた,ユーザクエリに基づく事前定義されたプロンプトテンプレートを生成する。
論文 参考訳(メタデータ) (2024-08-09T19:21:14Z) - PerkwE_COQA: Enhanced Persian Conversational Question Answering by combining contextual keyword extraction with Large Language Models [0.8057006406834466]
本稿では,ペルシア語対話型質問応答システム(CQA)の性能向上のための新しい手法を提案する。
LLM(Large Language Models)と文脈キーワード抽出の長所を組み合わせる。
提案手法は,暗黙的な質問を効果的に処理し,文脈に関連のある回答を提示し,会話の文脈に大きく依存する複雑な質問に対処する。
論文 参考訳(メタデータ) (2024-04-08T11:14:58Z) - SQUARE: Automatic Question Answering Evaluation using Multiple Positive
and Negative References [73.67707138779245]
SQuArE (Sentence-level QUestion AnsweRing Evaluation) という新しい評価指標を提案する。
文レベルの抽出(回答選択)と生成(GenQA)の両方のQAシステムでSQuArEを評価する。
論文 参考訳(メタデータ) (2023-09-21T16:51:30Z) - PICK: Polished & Informed Candidate Scoring for Knowledge-Grounded
Dialogue Systems [59.1250765143521]
現在の知識接地対話システムは、生成された応答を人間に好まれる品質に合わせるのに失敗することが多い。
我々は,世代別再描画フレームワークであるPolseed & Informed Candidate Scoring (PICK)を提案する。
対話履歴に関連性を維持しつつ,より忠実な応答を生成するためのPICKの有効性を示す。
論文 参考訳(メタデータ) (2023-09-19T08:27:09Z) - Answering Ambiguous Questions via Iterative Prompting [84.3426020642704]
オープンドメインの質問応答では、質問のあいまいさのため、複数の妥当な回答が存在する可能性がある。
ひとつのアプローチは、すべての有効な回答を直接予測することですが、これは、妥当性と多様性のバランスに苦労する可能性があります。
本稿では,あいまいな疑問に答える既存手法の欠陥に対処するため,AmbigPromptを提案する。
論文 参考訳(メタデータ) (2023-07-08T04:32:17Z) - Multifaceted Improvements for Conversational Open-Domain Question
Answering [54.913313912927045]
対話型オープンドメイン質問回答(MICQA)のための多面的改善フレームワークを提案する。
第一に、提案したKL分割に基づく正規化は、検索と解答のためのより良い質問理解をもたらすことができる。
第二に、追加されたポストランカモジュールは、より関連性の高いパスをトップにプッシュし、2アスペクトの制約で読者に選択できる。
第3に、十分に設計されたカリキュラム学習戦略は、訓練と推論の黄金の通路設定のギャップを効果的に狭め、黄金の通路支援なしで真の答えを見つけることを奨励する。
論文 参考訳(メタデータ) (2022-04-01T07:54:27Z) - Improving the Question Answering Quality using Answer Candidate
Filtering based on Natural-Language Features [117.44028458220427]
本稿では,質問応答(QA)の品質をいかに改善できるかという課題に対処する。
私たちの主な貢献は、QAシステムが提供する間違った回答を識別できるアプローチです。
特に,提案手法は誤答の大部分を除去しつつ,その可能性を示した。
論文 参考訳(メタデータ) (2021-12-10T11:09:44Z) - Reinforcement Learning from Reformulations in Conversational Question
Answering over Knowledge Graphs [28.507683735633464]
本研究では,質問や修正の会話の流れから学習できる強化学習モデル「ConQUER」を提案する。
実験では、CONQUERが騒々しい報酬信号から会話の質問に答えることに成功したことが示されています。
論文 参考訳(メタデータ) (2021-05-11T08:08:35Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z) - IQA: Interactive Query Construction in Semantic Question Answering
Systems [8.961129460639999]
本稿では,SQAパイプラインのインタラクションスキームであるIQAを紹介する。
少数のユーザインタラクションであっても,SQAシステムの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-06-20T10:02:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。