論文の概要: Performance Prediction of Data-Driven Knowledge summarization of High
Entropy Alloys (HEAs) literature implementing Natural Language Processing
algorithms
- arxiv url: http://arxiv.org/abs/2311.07584v1
- Date: Mon, 6 Nov 2023 16:22:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-19 14:18:11.033535
- Title: Performance Prediction of Data-Driven Knowledge summarization of High
Entropy Alloys (HEAs) literature implementing Natural Language Processing
algorithms
- Title(参考訳): 自然言語処理アルゴリズムを用いた高エントロピー合金(HEA)文献のデータ駆動知識要約の性能予測
- Authors: Akshansh Mishra, Vijaykumar S Jatti, Vaishnavi More, Anish Dasgupta,
Devarrishi Dixit and Eyob Messele Sefene
- Abstract要約: 自然言語処理(NLP)の目標は、マシンインテリジェンスに人間の脳と同じように言葉を処理させることだ。
Geneism, Sumy, Luhn, Latent Semantic Analysis (LSA), Kull-back-Liebler (KL) al-gorithmの5つのNLPアルゴリズムが実装されている。
Luhnアルゴリズムは、他の使われているアルゴリズムと比較して知識要約タスクの精度が最も高い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to interpret spoken language is connected to natural language
processing. It involves teaching the AI how words relate to one another, how
they are meant to be used, and in what settings. The goal of natural language
processing (NLP) is to get a machine intelligence to process words the same way
a human brain does. This enables machine intelligence to interpret, arrange,
and comprehend textual data by processing the natural language. The technology
can comprehend what is communicated, whether it be through speech or writing
because AI pro-cesses language more quickly than humans can. In the present
study, five NLP algorithms, namely, Geneism, Sumy, Luhn, Latent Semantic
Analysis (LSA), and Kull-back-Liebler (KL) al-gorithm, are implemented for the
first time for the knowledge summarization purpose of the High Entropy Alloys
(HEAs). The performance prediction of these algorithms is made by using the
BLEU score and ROUGE score. The results showed that the Luhn algorithm has the
highest accuracy score for the knowledge summarization tasks compared to the
other used algorithms.
- Abstract(参考訳): 音声言語を解釈する能力は自然言語処理と関連している。
言葉が相互にどのように関連しているか、どのように使用されるか、どんな設定でAIに教える。
自然言語処理(NLP)の目標は、マシンインテリジェンスに人間の脳と同じように言葉を処理させることだ。
これにより、自然言語を処理することによって、機械知能がテキストデータを解釈、整理、理解することができる。
この技術は、AIが人間よりも早く言語を習得するので、音声や文字によるコミュニケーションを理解できます。
本研究では,5つのNLPアルゴリズム,すなわちGeneism, Sumy, Luhn, Latent Semantic Analysis (LSA), Kull-back-Liebler (KL) al-gorithmを,高エントロピー合金(HEAs)の知識要約のために初めて実装した。
これらのアルゴリズムの性能予測はBLEUスコアとROUGEスコアを用いて行われる。
その結果,Lunhnアルゴリズムは,他のアルゴリズムと比較して,知識要約タスクの精度が最も高いことがわかった。
関連論文リスト
- Training Neural Networks as Recognizers of Formal Languages [87.06906286950438]
形式言語理論は、特に認識者に関するものである。
代わりに、非公式な意味でのみ類似したプロキシタスクを使用するのが一般的である。
ニューラルネットワークを文字列のバイナリ分類器として直接訓練し評価することで、このミスマッチを補正する。
論文 参考訳(メタデータ) (2024-11-11T16:33:25Z) - A Quantum-Inspired Analysis of Human Disambiguation Processes [0.0]
この論文では、基礎量子力学から生じる形式主義を言語学から生じるあいまいさの研究に適用する。
その後、人間の行動予測や現在のNLP法よりも優れた結果が得られた。
論文 参考訳(メタデータ) (2024-08-14T09:21:23Z) - From Decoding to Meta-Generation: Inference-time Algorithms for Large Language Models [63.188607839223046]
この調査は、推論中に計算をスケールするメリットに焦点を当てている。
我々はトークンレベルの生成アルゴリズム、メタジェネレーションアルゴリズム、効率的な生成という3つの領域を統一的な数学的定式化の下で探索する。
論文 参考訳(メタデータ) (2024-06-24T17:45:59Z) - Executing Natural Language-Described Algorithms with Large Language Models: An Investigation [48.461999568129166]
自然言語で概説したアルゴリズムを理解・実行するための,今日の大規模言語モデルの能力について検討する。
我々は、30個のアルゴリズムを選択し、300個のランダムサンプリングされたインスタンスを生成し、人気のあるLCMがこれらのアルゴリズムを理解し実行できるかを評価した。
この結果から,LLM,特にGPT-4は,重数値計算を伴わない限り,自然言語で記述されたプログラムを効果的に実行できることが判明した。
論文 参考訳(メタデータ) (2024-02-23T05:31:36Z) - When Do Program-of-Thoughts Work for Reasoning? [51.2699797837818]
本稿では,コードと推論能力の相関性を測定するために,複雑性に富んだ推論スコア(CIRS)を提案する。
具体的には、抽象構文木を用いて構造情報をエンコードし、論理的複雑性を計算する。
コードはhttps://github.com/zjunlp/EasyInstructのEasyInstructフレームワークに統合される。
論文 参考訳(メタデータ) (2023-08-29T17:22:39Z) - Fast Quantum Algorithm for Attention Computation [18.44025861624981]
大規模言語モデル(LLM)は、幅広いタスクで例外的なパフォーマンスを示している。
大規模言語モデル(LLM)のアーキテクチャにおけるアテンションスキームの役割
量子機械計算は古典機械と比較して一定の計算上の優位性を持っていることはよく知られている。
論文 参考訳(メタデータ) (2023-07-16T14:00:42Z) - AI2: The next leap toward native language based and explainable machine
learning framework [1.827510863075184]
提案されたフレームワークは、AI$2$と名付けられ、自然言語インターフェースを使用して、非スペシャリストが機械学習アルゴリズムの恩恵を受けることができる。
AI$2$フレームワークの主なコントリビューションは、ユーザーが機械学習アルゴリズムを英語で呼び出すことで、インターフェースの使用が容易になる。
もうひとつのコントリビューションは、データの適切な記述とロードを支援する前処理モジュールだ。
論文 参考訳(メタデータ) (2023-01-09T14:48:35Z) - Information Retrieval in Friction Stir Welding of Aluminum Alloys by
using Natural Language Processing based Algorithms [0.0]
テキスト要約(Text summarization)は、大きなテキストをいくつかの重要な要素に凝縮し、その内容の一般的な印象を与える技法である。
自然言語処理(NLP)は、人工知能のサブディビジョンであり、技術と人間の認知のギャップを狭める。
論文 参考訳(メタデータ) (2022-04-25T16:36:00Z) - How to transfer algorithmic reasoning knowledge to learn new algorithms? [23.335939830754747]
我々は,実行トレースにアクセス可能なアルゴリズムを用いて,そうでない同様のタスクを解く方法について検討する。
9つのアルゴリズムと3つの異なるグラフタイプを含むデータセットを作成します。
我々はこれを実証的に検証し、その代わりにマルチタスク学習を用いてアルゴリズム推論知識の伝達を実現する方法を示す。
論文 参考訳(メタデータ) (2021-10-26T22:14:47Z) - ERICA: Improving Entity and Relation Understanding for Pre-trained
Language Models via Contrastive Learning [97.10875695679499]
そこで本研究では, ERICA という新たなコントラスト学習フレームワークを提案し, エンティティとその関係をテキストでより深く理解する。
実験の結果,提案する erica フレームワークは文書レベルの言語理解タスクにおいて一貫した改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:35:22Z) - Strong Generalization and Efficiency in Neural Programs [69.18742158883869]
本稿では,ニューラルプログラム誘導の枠組みを強く一般化する効率的なアルゴリズムを学習する問題について検討する。
ニューラルネットワークの入力/出力インターフェースを慎重に設計し、模倣することで、任意の入力サイズに対して正しい結果を生成するモデルを学ぶことができる。
論文 参考訳(メタデータ) (2020-07-07T17:03:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。