論文の概要: Uncertainty in Natural Language Processing: Sources, Quantification, and
Applications
- arxiv url: http://arxiv.org/abs/2306.04459v1
- Date: Mon, 5 Jun 2023 06:46:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 13:59:43.576206
- Title: Uncertainty in Natural Language Processing: Sources, Quantification, and
Applications
- Title(参考訳): 自然言語処理の不確実性:出所、量化および応用
- Authors: Mengting Hu, Zhen Zhang, Shiwan Zhao, Minlie Huang and Bingzhe Wu
- Abstract要約: NLP分野における不確実性関連作業の総合的なレビューを行う。
まず、自然言語の不確実性の原因を、入力、システム、出力の3つのタイプに分類する。
我々は,NLPにおける不確実性推定の課題について論じ,今後の方向性について論じる。
- 参考スコア(独自算出の注目度): 56.130945359053776
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As a main field of artificial intelligence, natural language processing (NLP)
has achieved remarkable success via deep neural networks. Plenty of NLP tasks
have been addressed in a unified manner, with various tasks being associated
with each other through sharing the same paradigm. However, neural networks are
black boxes and rely on probability computation. Making mistakes is inevitable.
Therefore, estimating the reliability and trustworthiness (in other words,
uncertainty) of neural networks becomes a key research direction, which plays a
crucial role in reducing models' risks and making better decisions. Therefore,
in this survey, we provide a comprehensive review of uncertainty-relevant works
in the NLP field. Considering the data and paradigms characteristics, we first
categorize the sources of uncertainty in natural language into three types,
including input, system, and output. Then, we systemically review uncertainty
quantification approaches and the main applications. Finally, we discuss the
challenges of uncertainty estimation in NLP and discuss potential future
directions, taking into account recent trends in the field. Though there have
been a few surveys about uncertainty estimation, our work is the first to
review uncertainty from the NLP perspective.
- Abstract(参考訳): 人工知能のメインの分野として、自然言語処理(NLP)はディープニューラルネットワークを通じて大きな成功を収めている。
多くのNLPタスクが統一された方法で対処され、同じパラダイムを共有することで様々なタスクが互いに関連付けられている。
しかし、ニューラルネットワークはブラックボックスであり、確率計算に依存している。
ミスは避けられない。
したがって、ニューラルネットワークの信頼性と信頼性(つまり不確実性)を推定することは、モデルのリスクを低減し、より良い決定を下す上で重要な研究方向となる。
そこで本研究では,NLP分野における不確実性関連研究の総合的なレビューを行う。
データとパラダイムの特徴を考慮すると、まず自然言語における不確実性の源を入力、システム、出力の3つのタイプに分類する。
次に,不確実性定量化手法とその主な応用を体系的に検討する。
最後に,近年の動向を踏まえ,nlpにおける不確実性推定の課題を議論し,今後の方向性について検討する。
不確実性評価に関する調査はいくつかあるが、我々の研究はNLPの観点から初めて不確実性を評価するものである。
関連論文リスト
- Uncertainty Calibration with Energy Based Instance-wise Scaling in the Wild Dataset [23.155946032377052]
エネルギーモデルに基づく新しいインスタンスワイドキャリブレーション手法を提案する。
本手法は,ソフトマックス信頼性スコアの代わりにエネルギースコアを組み込むことにより,不確実性を考慮した適応的な検討を可能にする。
実験では,提案手法はスペクトル間のロバストな性能を一貫して維持することを示した。
論文 参考訳(メタデータ) (2024-07-17T06:14:55Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Toward Reliable Human Pose Forecasting with Uncertainty [51.628234388046195]
我々は、複数のモデルを含む人間のポーズ予測のためのオープンソースのライブラリを開発し、複数のデータセットをサポートする。
我々は、パフォーマンスを高め、より良い信頼をもたらすために、問題の2つの不確実性を考案する。
論文 参考訳(メタデータ) (2023-04-13T17:56:08Z) - Uncertainty of Feed Forward Neural Networks Recognizing Quantum
Contextuality [2.5665227681407243]
ベイズニューラルネットワーク(BNN)による精度と不確実性の両方を推定する強力な手法
偏りのあるデータセットを用いてトレーニングした後でも、BNNが確実な不確実性推定の能力をいかに強調できるかを示す。
論文 参考訳(メタデータ) (2022-12-27T17:33:46Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Global Convolutional Neural Processes [52.85558458799716]
我々は,潜伏NPFにおけるSOTAログ類似化を実現するGloBal Convolutional Neural Process(GBCoNP)を構築する。
離散化された入力空間上の集合である大域的不確実性表現 p(z) を設計する。
学習した先行データは、1D、2D、新たに提案された時空間のCOVIDデータセットなど、さまざまなシナリオで分析される。
論文 参考訳(メタデータ) (2021-09-02T03:32:50Z) - A Survey of Uncertainty in Deep Neural Networks [39.68313590688467]
これは、ニューラルネットワークにおける不確実性推定に関心のある人に、幅広い概要と導入を提供することを目的としている。
最も重要な不確実性源を包括的に紹介し、再現可能なモデル不確実性への分離と、再現可能なデータ不確実性について述べる。
本稿では,ニューラルネットワークのキャリブレーションに対する様々な不確実性,アプローチ,既存のベースラインと実装の概要について論じる。
論文 参考訳(メタデータ) (2021-07-07T16:39:28Z) - Interval Deep Learning for Uncertainty Quantification in Safety
Applications [0.0]
現在のディープニューラルネットワーク(DNN)は、重要な入力データの不確実性を定量化し伝播する暗黙のメカニズムを持っていない。
本稿では、間隔解析を用いて入力とパラメータの不確かさを定量化できる勾配法を最適化したDNNを提案する。
本研究では,Deep Interval Neural Network (DINN) が不確定な入力データから正確な有界推定を生成できることを示した。
論文 参考訳(メタデータ) (2021-05-13T17:21:33Z) - Multivariate Deep Evidential Regression [77.34726150561087]
不確実性を認識するニューラルネットワークによる新しいアプローチは、従来の決定論的手法よりも有望である。
本稿では,レグレッションベースニューラルネットワークからアレータ性およびてんかん性不確かさを抽出する手法を提案する。
論文 参考訳(メタデータ) (2021-04-13T12:20:18Z) - Multidimensional Uncertainty-Aware Evidential Neural Networks [21.716045815385268]
非可逆性(OOD)検出問題を解決するために、WGAN-ENN(WENN)と呼ばれる新しい不確実性認識NNを提案する。
我々は、Wasserstein Generative Adrial Network(WGAN)とENNを組み合わせて、あるクラスの事前知識でモデルを共同で訓練するハイブリッドアプローチを採用した。
WENNによる不確実性の推定は、OODサンプルと境界サンプルを有意に区別するのに役立つことを実証した。
論文 参考訳(メタデータ) (2020-12-26T04:28:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。