論文の概要: Distributed Linguistic Representations in Decision Making: Taxonomy, Key
Elements and Applications, and Challenges in Data Science and Explainable
Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2008.01499v2
- Date: Fri, 7 Aug 2020 06:03:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 00:13:03.889223
- Title: Distributed Linguistic Representations in Decision Making: Taxonomy, Key
Elements and Applications, and Challenges in Data Science and Explainable
Artificial Intelligence
- Title(参考訳): 意思決定における分散型言語表現:分類学、重要な要素と応用、データサイエンスと説明可能な人工知能の課題
- Authors: Yuzhu Wu, Zhen Zhang, Gang Kou, Hengjie Zhang, Xiangrui Chao,
Cong-Cong Li, Yucheng Dong and Francisco Herrera
- Abstract要約: 本稿では,既存の分散言語表現の分類について述べる。
意思決定における分散言語情報処理の重要要素について概観する。
次に、データサイエンスと説明可能な人工知能の観点から、現在進行中の課題と今後の研究方向性について論じる。
- 参考スコア(独自算出の注目度): 26.908909011805502
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Distributed linguistic representations are powerful tools for modelling the
uncertainty and complexity of preference information in linguistic decision
making. To provide a comprehensive perspective on the development of
distributed linguistic representations in decision making, we present the
taxonomy of existing distributed linguistic representations. Then, we review
the key elements of distributed linguistic information processing in decision
making, including the distance measurement, aggregation methods, distributed
linguistic preference relations, and distributed linguistic multiple attribute
decision making models. Next, we provide a discussion on ongoing challenges and
future research directions from the perspective of data science and explainable
artificial intelligence.
- Abstract(参考訳): 分散言語表現は、言語決定における選好情報の不確実性と複雑さをモデル化するための強力なツールである。
意思決定における分散言語表現の発展に関する包括的視点を提供するため,既存の分散言語表現の分類法を提案する。
そこで我々は,距離計測,集約手法,分散言語嗜好関係,分散言語多属性意思決定モデルなど,意思決定における分散言語情報処理の重要な要素について検討する。
次に、データサイエンスと説明可能な人工知能の観点から、現在進行中の課題と今後の研究方向について議論する。
関連論文リスト
- Ling-CL: Understanding NLP Models through Linguistic Curricula [17.44112549879293]
我々は精神言語学と言語習得研究から言語複雑性の特徴づけを取り入れている。
我々は、モデルがNLPタスクに対処するために学習する基礎となる言語知識を理解するために、データ駆動型カリキュラムを開発する。
論文 参考訳(メタデータ) (2023-10-31T01:44:33Z) - Unveiling A Core Linguistic Region in Large Language Models [49.860260050718516]
本稿では,脳局在化をプロトタイプとして用いた類似研究を行う。
我々は、言語能力に対応する大規模言語モデルにおいて、中核領域を発見した。
我々は,言語能力の向上が必ずしもモデルの知識レベルの向上に伴わないことを観察する。
論文 参考訳(メタデータ) (2023-10-23T13:31:32Z) - Diffusion Language Models Can Perform Many Tasks with Scaling and
Instruction-Finetuning [56.03057119008865]
拡散言語モデルを拡張することで、強力な言語学習者が効果的に学習できることが示される。
大規模データから知識を最初に取得することで,大規模に有能な拡散言語モデルを構築する。
実験により、拡散言語モデルのスケーリングは、下流言語タスクにおけるパフォーマンスを一貫して改善することが示された。
論文 参考訳(メタデータ) (2023-08-23T16:01:12Z) - Interactive Natural Language Processing [67.87925315773924]
対話型自然言語処理(iNLP)は,NLP分野における新しいパラダイムとして登場した。
本稿では,iNLPの概念の統一的定義と枠組みを提案することから,iNLPに関する包括的調査を行う。
論文 参考訳(メタデータ) (2023-05-22T17:18:29Z) - LaMPP: Language Models as Probabilistic Priors for Perception and Action [38.07277869107474]
非言語的知覚と制御タスクに言語モデルを活用する方法を示す。
提案手法は,確率的グラフィカルモデルにおけるラベリングと意思決定を推論として用いている。
論文 参考訳(メタデータ) (2023-02-03T15:14:04Z) - Probing via Prompting [71.7904179689271]
本稿では,探索をプロンプトタスクとして定式化することで,新しいモデルフリーな探索手法を提案する。
我々は5つの探索課題について実験を行い、我々のアプローチが診断プローブよりも情報抽出に優れていることを示す。
次に,その特性に不可欠な頭部を除去し,言語モデリングにおけるモデルの性能を評価することにより,事前学習のための特定の言語特性の有用性を検討する。
論文 参考訳(メタデータ) (2022-07-04T22:14:40Z) - Curriculum: A Broad-Coverage Benchmark for Linguistic Phenomena in
Natural Language Understanding [1.827510863075184]
Curriculumは広範囲言語現象の評価のためのNLIベンチマークの新しいフォーマットである。
この言語フェノメナ駆動型ベンチマークは、モデル行動の診断とモデル学習品質の検証に有効なツールであることを示す。
論文 参考訳(メタデータ) (2022-04-13T10:32:03Z) - A Latent-Variable Model for Intrinsic Probing [94.61336186402615]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - Probing Linguistic Information For Logical Inference In Pre-trained
Language Models [2.4366811507669124]
本稿では,事前学習した言語モデル表現における論理推論のための言語情報探索手法を提案する。
i)事前学習された言語モデルは、推論のためにいくつかの種類の言語情報を符号化するが、弱符号化された情報もいくつか存在する。
シンボリック推論支援のためのセマンティックおよび背景知識基盤としての言語モデルの可能性を実証した。
論文 参考訳(メタデータ) (2021-12-03T07:19:42Z) - Morphological Disambiguation from Stemming Data [1.2183405753834562]
形態学的に豊かな言語であるKinyarwandaは、現在、自動形態素解析のためのツールを欠いている。
我々は、クラウドソーシングを通じて収集された新しいスリーミングデータセットから、Kinyarwandaの動詞形を形態的に曖昧にすることを学ぶ。
本実験により, 茎の屈折特性と形態素関連規則が, 曖昧さの最も識別的な特徴であることが判明した。
論文 参考訳(メタデータ) (2020-11-11T01:44:09Z) - Data Augmentation for Spoken Language Understanding via Pretrained
Language Models [113.56329266325902]
音声言語理解(SLU)モデルの訓練は、しばしばデータ不足の問題に直面している。
我々は,事前学習言語モデルを用いたデータ拡張手法を提案し,生成した発話の変動性と精度を向上した。
論文 参考訳(メタデータ) (2020-04-29T04:07:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。