論文の概要: Distributed Linguistic Representations in Decision Making: Taxonomy, Key
Elements and Applications, and Challenges in Data Science and Explainable
Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2008.01499v2
- Date: Fri, 7 Aug 2020 06:03:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 00:13:03.889223
- Title: Distributed Linguistic Representations in Decision Making: Taxonomy, Key
Elements and Applications, and Challenges in Data Science and Explainable
Artificial Intelligence
- Title(参考訳): 意思決定における分散型言語表現:分類学、重要な要素と応用、データサイエンスと説明可能な人工知能の課題
- Authors: Yuzhu Wu, Zhen Zhang, Gang Kou, Hengjie Zhang, Xiangrui Chao,
Cong-Cong Li, Yucheng Dong and Francisco Herrera
- Abstract要約: 本稿では,既存の分散言語表現の分類について述べる。
意思決定における分散言語情報処理の重要要素について概観する。
次に、データサイエンスと説明可能な人工知能の観点から、現在進行中の課題と今後の研究方向性について論じる。
- 参考スコア(独自算出の注目度): 26.908909011805502
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Distributed linguistic representations are powerful tools for modelling the
uncertainty and complexity of preference information in linguistic decision
making. To provide a comprehensive perspective on the development of
distributed linguistic representations in decision making, we present the
taxonomy of existing distributed linguistic representations. Then, we review
the key elements of distributed linguistic information processing in decision
making, including the distance measurement, aggregation methods, distributed
linguistic preference relations, and distributed linguistic multiple attribute
decision making models. Next, we provide a discussion on ongoing challenges and
future research directions from the perspective of data science and explainable
artificial intelligence.
- Abstract(参考訳): 分散言語表現は、言語決定における選好情報の不確実性と複雑さをモデル化するための強力なツールである。
意思決定における分散言語表現の発展に関する包括的視点を提供するため,既存の分散言語表現の分類法を提案する。
そこで我々は,距離計測,集約手法,分散言語嗜好関係,分散言語多属性意思決定モデルなど,意思決定における分散言語情報処理の重要な要素について検討する。
次に、データサイエンスと説明可能な人工知能の観点から、現在進行中の課題と今後の研究方向について議論する。
関連論文リスト
- From Word Vectors to Multimodal Embeddings: Techniques, Applications, and Future Directions For Large Language Models [17.04716417556556]
本稿では,分布仮説や文脈的類似性といった基礎概念を概観する。
本稿では, ELMo, BERT, GPTなどのモデルにおいて, 静的な埋め込みと文脈的埋め込みの両方について検討する。
議論は文章や文書の埋め込みにまで拡張され、集約メソッドや生成トピックモデルをカバーする。
モデル圧縮、解釈可能性、数値エンコーディング、バイアス緩和といった高度なトピックを分析し、技術的な課題と倫理的意味の両方に対処する。
論文 参考訳(メタデータ) (2024-11-06T15:40:02Z) - Linguistically Grounded Analysis of Language Models using Shapley Head Values [2.914115079173979]
最近提案されたシェープヘッド値(SHV)を用いた言語モデル探索手法を利用した形態素合成現象の処理について検討する。
英語のBLiMPデータセットを用いて、BERTとRoBERTaという2つの広く使われているモデルに対して、我々のアプローチを検証し、言語構造がどのように扱われるかを比較する。
以上の結果から,SHVに基づく属性は両モデルにまたがる異なるパターンを明らかにし,言語モデルがどのように言語情報を整理・処理するかの洞察を与える。
論文 参考訳(メタデータ) (2024-10-17T09:48:08Z) - Learning Phonotactics from Linguistic Informants [54.086544221761486]
本モデルでは,情報理論的なポリシーの1つに従って,データポイントを反復的に選択または合成する。
提案モデルでは,情報提供者を問う項目の選択に使用する情報理論のポリシーが,完全教師付きアプローチに匹敵する,あるいはそれ以上の効率性が得られることがわかった。
論文 参考訳(メタデータ) (2024-05-08T00:18:56Z) - A Survey on Lexical Ambiguity Detection and Word Sense Disambiguation [0.0]
本稿では自然言語処理(NLP)分野における言語におけるあいまいさの理解と解決に焦点を当てた手法について検討する。
ディープラーニング技術から、WordNetのような語彙的リソースや知識グラフの活用まで、さまざまなアプローチを概説している。
本研究は, 感覚アノテートコーパスの不足, 非公式な臨床テキストの複雑さなど, この分野における永続的な課題を明らかにした。
論文 参考訳(メタデータ) (2024-03-24T12:58:48Z) - Diffusion Language Models Can Perform Many Tasks with Scaling and
Instruction-Finetuning [56.03057119008865]
拡散言語モデルを拡張することで、強力な言語学習者が効果的に学習できることが示される。
大規模データから知識を最初に取得することで,大規模に有能な拡散言語モデルを構築する。
実験により、拡散言語モデルのスケーリングは、下流言語タスクにおけるパフォーマンスを一貫して改善することが示された。
論文 参考訳(メタデータ) (2023-08-23T16:01:12Z) - Interactive Natural Language Processing [67.87925315773924]
対話型自然言語処理(iNLP)は,NLP分野における新しいパラダイムとして登場した。
本稿では,iNLPの概念の統一的定義と枠組みを提案することから,iNLPに関する包括的調査を行う。
論文 参考訳(メタデータ) (2023-05-22T17:18:29Z) - Probing via Prompting [71.7904179689271]
本稿では,探索をプロンプトタスクとして定式化することで,新しいモデルフリーな探索手法を提案する。
我々は5つの探索課題について実験を行い、我々のアプローチが診断プローブよりも情報抽出に優れていることを示す。
次に,その特性に不可欠な頭部を除去し,言語モデリングにおけるモデルの性能を評価することにより,事前学習のための特定の言語特性の有用性を検討する。
論文 参考訳(メタデータ) (2022-07-04T22:14:40Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - Probing Linguistic Information For Logical Inference In Pre-trained
Language Models [2.4366811507669124]
本稿では,事前学習した言語モデル表現における論理推論のための言語情報探索手法を提案する。
i)事前学習された言語モデルは、推論のためにいくつかの種類の言語情報を符号化するが、弱符号化された情報もいくつか存在する。
シンボリック推論支援のためのセマンティックおよび背景知識基盤としての言語モデルの可能性を実証した。
論文 参考訳(メタデータ) (2021-12-03T07:19:42Z) - Data Augmentation for Spoken Language Understanding via Pretrained
Language Models [113.56329266325902]
音声言語理解(SLU)モデルの訓練は、しばしばデータ不足の問題に直面している。
我々は,事前学習言語モデルを用いたデータ拡張手法を提案し,生成した発話の変動性と精度を向上した。
論文 参考訳(メタデータ) (2020-04-29T04:07:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。