論文の概要: Secret-Keeping in Question Answering
- arxiv url: http://arxiv.org/abs/2303.09067v1
- Date: Thu, 16 Mar 2023 03:56:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 16:56:24.810745
- Title: Secret-Keeping in Question Answering
- Title(参考訳): 質問応答における秘密保持
- Authors: Nathaniel W. Rollings, Kent O'Sullivan, Sakshum Kulshrestha
- Abstract要約: 我々は、特定の事実を秘密にしておくために質問応答システムを教えることができるかどうかを判断する。
概念実証アーキテクチャを設計,実装し,その評価を通じて,将来的なシステム・パラノイアの低減に向けた様々な研究の方向性が決定される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing question-answering research focuses on unanswerable questions in the
context of always providing an answer when a system can\dots but what about
cases where a system {\bf should not} answer a question. This can either be to
protect sensitive users or sensitive information. Many models expose sensitive
information under interrogation by an adversarial user. We seek to determine if
it is possible to teach a question-answering system to keep a specific fact
secret. We design and implement a proof-of-concept architecture and through our
evaluation determine that while possible, there are numerous directions for
future research to reduce system paranoia (false positives), information
leakage (false negatives) and extend the implementation of the work to more
complex problems with preserving secrecy in the presence of information
aggregation.
- Abstract(参考訳): 既存の質問回答研究は、システムが解答できる場合に常に答えを提供するコンテキストにおいて、解決不可能な質問に焦点を当てている。
これはセンシティブなユーザーを保護するか、センシティブな情報を保護できる。
多くのモデルは、敵ユーザーの尋問の下で機密情報を暴露する。
我々は、特定の事実を秘密にしておくために質問応答システムを教えることができるかどうかを判断する。
我々は概念実証アーキテクチャを設計・実装し,その評価を通じて,システムパラノイア(偽陽性),情報漏洩(偽陰性),作業の実施を,情報集約の存在下で機密性を維持するためのより複雑な問題に拡張するための,今後の研究の方向性が多数存在することを判断する。
関連論文リスト
- Can Users Detect Biases or Factual Errors in Generated Responses in Conversational Information-Seeking? [13.790574266700006]
対話型情報検索システムにおける応答生成の限界について検討する。
本研究は,問合せ応答性の問題と応答不完全性の課題に対処する。
分析の結果,クエリ応答性よりも応答不完全性の検出が容易であることが判明した。
論文 参考訳(メタデータ) (2024-10-28T20:55:00Z) - Open Domain Question Answering with Conflicting Contexts [55.739842087655774]
あいまいでオープンなドメインの質問の25%は、Google Searchを使って検索すると、コンフリクトのあるコンテキストにつながります。
我々はアノテータに正しい回答の選択についての説明を依頼する。
論文 参考訳(メタデータ) (2024-10-16T07:24:28Z) - Don't Just Say "I don't know"! Self-aligning Large Language Models for Responding to Unknown Questions with Explanations [70.6395572287422]
自己調整法は,回答を拒否するだけでなく,未知の質問の解答不能を説明できる。
我々は, LLM自体を微調整し, 未知の質問に対する応答を所望の通りに調整するために, 偏差駆動による自己計算を行い, 有資格データを選択する。
論文 参考訳(メタデータ) (2024-02-23T02:24:36Z) - Selectively Answering Ambiguous Questions [38.83930394700588]
我々は, サンプルモデル出力における繰り返しの定量化が, 退避時期を決定する最も信頼性の高い手法であることが判明した。
その結果,サンプリングに基づく信頼度スコアは,比較的あいまいな質問に対する回答のキャリブレーションに有効であることが示唆された。
論文 参考訳(メタデータ) (2023-05-24T01:25:38Z) - Unsupervised Question Duplicate and Related Questions Detection in
e-learning platforms [1.8749305679160364]
そこで本稿では,教師付きデータを使わずに,ほぼ重複した,意味的な質問を提示するツールを提案する。
提案するツールは、統計的アプローチとニューラルネットワークアプローチの教師なしハイブリッドパイプラインに従う。
我々はQDupがほぼ重複した質問を検知し、関連する質問を驚くほどの精度とスピードで提案できることを実証した。
論文 参考訳(メタデータ) (2022-12-20T11:52:52Z) - CREPE: Open-Domain Question Answering with False Presuppositions [92.20501870319765]
オンライン情報検索フォーラムからの予測失敗の自然な分布を含むQAデータセットであるCREPEを紹介する。
25%の質問が偽の前提命題を含み、これらの前提命題とその修正のための注釈を提供する。
既存のオープンドメインQAモデルの適応は適度に予測できるが、仮定が実際に正しいかどうかを予測するのに苦労する。
論文 参考訳(メタデータ) (2022-11-30T18:54:49Z) - Medical Question Understanding and Answering with Knowledge Grounding
and Semantic Self-Supervision [53.692793122749414]
本稿では,知識基盤とセマンティック・セルフスーパービジョンを備えた医療質問理解・回答システムについて紹介する。
我々のシステムは、まず、教師付き要約損失を用いて、長い医学的、ユーザによる質問を要約するパイプラインである。
システムはまず、信頼された医療知識ベースから要約されたユーザ質問とFAQとをマッチングし、対応する回答文書から一定の数の関連文を検索する。
論文 参考訳(メタデータ) (2022-09-30T08:20:32Z) - Interactive Question Answering Systems: Literature Review [17.033640293433397]
対話型質問応答(Interactive Question answering)は、質問応答と対話システムの交差点に存在する、最近提案され、ますます人気が高まっているソリューションである。
ユーザがより多くの質問をできるようにすることで、インタラクティブな質問応答によって、ユーザはシステムと動的に対話し、より正確な結果を受け取ることができる。
本調査は,現在の文献で広く普及している対話型質問応答法の概要を概説する。
論文 参考訳(メタデータ) (2022-09-04T13:46:54Z) - Attacking Open-domain Question Answering by Injecting Misinformation [116.25434773461465]
質問応答モデル(QA)に対する誤報のリスクについて,オープンドメインQAモデルの誤報文書に対する感度について検討した。
実験により、QAモデルは誤情報による少量の証拠汚染に対して脆弱であることが示されている。
質問応答と誤情報検出を統合した誤情報認識型QAシステムの構築の必要性について論じる。
論文 参考訳(メタデータ) (2021-10-15T01:55:18Z) - An Empirical Study of Clarifying Question-Based Systems [15.767515065224016]
実験システムをデプロイしてオンライン実験を行い、プロダクトリポジトリに対して明確な質問をすることでユーザと対話する。
暗黙的なインタラクション行動データと,ユーザからの明示的なフィードバックの両方を収集する。 (a)ユーザは,多くの明確な質問(平均11~21件)に回答する意思がありますが,それ以上は多くありません。
論文 参考訳(メタデータ) (2020-08-01T15:10:11Z) - Visual Question Answering with Prior Class Semantics [50.845003775809836]
候補解のセマンティクスに関連する追加情報を利用する方法を示す。
セマンティック空間における回帰目標を用いて解答予測プロセスを拡張する。
提案手法は,様々な質問タイプに対して,一貫性と精度の向上をもたらす。
論文 参考訳(メタデータ) (2020-05-04T02:46:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。