論文の概要: Performance Prediction of Data-Driven Knowledge summarization of High
Entropy Alloys (HEAs) literature implementing Natural Language Processing
algorithms
- arxiv url: http://arxiv.org/abs/2311.07584v1
- Date: Mon, 6 Nov 2023 16:22:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-19 14:18:11.033535
- Title: Performance Prediction of Data-Driven Knowledge summarization of High
Entropy Alloys (HEAs) literature implementing Natural Language Processing
algorithms
- Title(参考訳): 自然言語処理アルゴリズムを用いた高エントロピー合金(HEA)文献のデータ駆動知識要約の性能予測
- Authors: Akshansh Mishra, Vijaykumar S Jatti, Vaishnavi More, Anish Dasgupta,
Devarrishi Dixit and Eyob Messele Sefene
- Abstract要約: 自然言語処理(NLP)の目標は、マシンインテリジェンスに人間の脳と同じように言葉を処理させることだ。
Geneism, Sumy, Luhn, Latent Semantic Analysis (LSA), Kull-back-Liebler (KL) al-gorithmの5つのNLPアルゴリズムが実装されている。
Luhnアルゴリズムは、他の使われているアルゴリズムと比較して知識要約タスクの精度が最も高い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to interpret spoken language is connected to natural language
processing. It involves teaching the AI how words relate to one another, how
they are meant to be used, and in what settings. The goal of natural language
processing (NLP) is to get a machine intelligence to process words the same way
a human brain does. This enables machine intelligence to interpret, arrange,
and comprehend textual data by processing the natural language. The technology
can comprehend what is communicated, whether it be through speech or writing
because AI pro-cesses language more quickly than humans can. In the present
study, five NLP algorithms, namely, Geneism, Sumy, Luhn, Latent Semantic
Analysis (LSA), and Kull-back-Liebler (KL) al-gorithm, are implemented for the
first time for the knowledge summarization purpose of the High Entropy Alloys
(HEAs). The performance prediction of these algorithms is made by using the
BLEU score and ROUGE score. The results showed that the Luhn algorithm has the
highest accuracy score for the knowledge summarization tasks compared to the
other used algorithms.
- Abstract(参考訳): 音声言語を解釈する能力は自然言語処理と関連している。
言葉が相互にどのように関連しているか、どのように使用されるか、どんな設定でAIに教える。
自然言語処理(NLP)の目標は、マシンインテリジェンスに人間の脳と同じように言葉を処理させることだ。
これにより、自然言語を処理することによって、機械知能がテキストデータを解釈、整理、理解することができる。
この技術は、AIが人間よりも早く言語を習得するので、音声や文字によるコミュニケーションを理解できます。
本研究では,5つのNLPアルゴリズム,すなわちGeneism, Sumy, Luhn, Latent Semantic Analysis (LSA), Kull-back-Liebler (KL) al-gorithmを,高エントロピー合金(HEAs)の知識要約のために初めて実装した。
これらのアルゴリズムの性能予測はBLEUスコアとROUGEスコアを用いて行われる。
その結果,Lunhnアルゴリズムは,他のアルゴリズムと比較して,知識要約タスクの精度が最も高いことがわかった。
関連論文リスト
- Executing Natural Language-Described Algorithms with Large Language Models: An Investigation [48.461999568129166]
自然言語で概説したアルゴリズムを理解・実行するための,今日の大規模言語モデルの能力について検討する。
我々は、30個のアルゴリズムを選択し、300個のランダムサンプリングされたインスタンスを生成し、人気のあるLCMがこれらのアルゴリズムを理解し実行できるかを評価した。
この結果から,LLM,特にGPT-4は,重数値計算を伴わない限り,自然言語で記述されたプログラムを効果的に実行できることが判明した。
論文 参考訳(メタデータ) (2024-02-23T05:31:36Z) - Natural Language Processing for Dialects of a Language: A Survey [59.78833854847185]
最先端自然言語処理(NLP)モデルは、大規模なトレーニングコーパスでトレーニングされ、評価データセットで最上位のパフォーマンスを報告します。
この調査は、これらのデータセットの重要な属性である言語の方言を掘り下げる。
方言データセットに対するNLPモデルの性能劣化と言語技術のエクイティへのその影響を動機として,我々はデータセットやアプローチの観点から,方言に対するNLPの過去の研究を調査した。
論文 参考訳(メタデータ) (2024-01-11T03:04:38Z) - When Do Program-of-Thoughts Work for Reasoning? [51.2699797837818]
本稿では,コードと推論能力の相関性を測定するために,複雑性に富んだ推論スコア(CIRS)を提案する。
具体的には、抽象構文木を用いて構造情報をエンコードし、論理的複雑性を計算する。
コードはhttps://github.com/zjunlp/EasyInstructのEasyInstructフレームワークに統合される。
論文 参考訳(メタデータ) (2023-08-29T17:22:39Z) - Fast Quantum Algorithm for Attention Computation [18.44025861624981]
大規模言語モデル(LLM)は、幅広いタスクで例外的なパフォーマンスを示している。
大規模言語モデル(LLM)のアーキテクチャにおけるアテンションスキームの役割
量子機械計算は古典機械と比較して一定の計算上の優位性を持っていることはよく知られている。
論文 参考訳(メタデータ) (2023-07-16T14:00:42Z) - AI2: The next leap toward native language based and explainable machine
learning framework [1.827510863075184]
提案されたフレームワークは、AI$2$と名付けられ、自然言語インターフェースを使用して、非スペシャリストが機械学習アルゴリズムの恩恵を受けることができる。
AI$2$フレームワークの主なコントリビューションは、ユーザーが機械学習アルゴリズムを英語で呼び出すことで、インターフェースの使用が容易になる。
もうひとつのコントリビューションは、データの適切な記述とロードを支援する前処理モジュールだ。
論文 参考訳(メタデータ) (2023-01-09T14:48:35Z) - Information Retrieval in Friction Stir Welding of Aluminum Alloys by
using Natural Language Processing based Algorithms [0.0]
テキスト要約(Text summarization)は、大きなテキストをいくつかの重要な要素に凝縮し、その内容の一般的な印象を与える技法である。
自然言語処理(NLP)は、人工知能のサブディビジョンであり、技術と人間の認知のギャップを狭める。
論文 参考訳(メタデータ) (2022-04-25T16:36:00Z) - How to transfer algorithmic reasoning knowledge to learn new algorithms? [23.335939830754747]
我々は,実行トレースにアクセス可能なアルゴリズムを用いて,そうでない同様のタスクを解く方法について検討する。
9つのアルゴリズムと3つの異なるグラフタイプを含むデータセットを作成します。
我々はこれを実証的に検証し、その代わりにマルチタスク学習を用いてアルゴリズム推論知識の伝達を実現する方法を示す。
論文 参考訳(メタデータ) (2021-10-26T22:14:47Z) - Generalized Optimal Linear Orders [9.010643838773477]
言語の逐次構造、特に文中の単語の順序は、人間の言語処理において中心的な役割を果たす。
言語の計算モデルの設計において、デファクトのアプローチは、原文と同じ順序で命令された単語を機械に提示することである。
この研究の本質は、これが望ましいという暗黙の仮定を疑問視し、自然言語処理における語順の考慮に理論的健全性を注入することである。
論文 参考訳(メタデータ) (2021-08-13T13:10:15Z) - ERICA: Improving Entity and Relation Understanding for Pre-trained
Language Models via Contrastive Learning [97.10875695679499]
そこで本研究では, ERICA という新たなコントラスト学習フレームワークを提案し, エンティティとその関係をテキストでより深く理解する。
実験の結果,提案する erica フレームワークは文書レベルの言語理解タスクにおいて一貫した改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:35:22Z) - Strong Generalization and Efficiency in Neural Programs [69.18742158883869]
本稿では,ニューラルプログラム誘導の枠組みを強く一般化する効率的なアルゴリズムを学習する問題について検討する。
ニューラルネットワークの入力/出力インターフェースを慎重に設計し、模倣することで、任意の入力サイズに対して正しい結果を生成するモデルを学ぶことができる。
論文 参考訳(メタデータ) (2020-07-07T17:03:02Z) - Exploring Software Naturalness through Neural Language Models [56.1315223210742]
ソフトウェア自然性仮説(Software Naturalness hypothesis)は、自然言語処理で使用されるのと同じ手法でプログラミング言語を理解することができると主張している。
この仮説は,事前学習されたトランスフォーマーベース言語モデルを用いて,コード解析タスクを実行することによって検討する。
論文 参考訳(メタデータ) (2020-06-22T21:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。