論文の概要: Information Retrieval in Friction Stir Welding of Aluminum Alloys by
using Natural Language Processing based Algorithms
- arxiv url: http://arxiv.org/abs/2204.12309v1
- Date: Mon, 25 Apr 2022 16:36:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-28 05:14:21.710136
- Title: Information Retrieval in Friction Stir Welding of Aluminum Alloys by
using Natural Language Processing based Algorithms
- Title(参考訳): 自然言語処理に基づくアルゴリズムによるアルミニウム合金の摩擦スターリング溶接における情報検索
- Authors: Akshansh Mishra
- Abstract要約: テキスト要約(Text summarization)は、大きなテキストをいくつかの重要な要素に凝縮し、その内容の一般的な印象を与える技法である。
自然言語処理(NLP)は、人工知能のサブディビジョンであり、技術と人間の認知のギャップを狭める。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text summarization is a technique for condensing a big piece of text into a
few key elements that give a general impression of the content. When someone
requires a quick and precise summary of a large amount of information, it
becomes vital. If done manually, summarizing text can be costly and
time-consuming. Natural Language Processing (NLP) is the sub-division of
Artificial Intelligence that narrows down the gap between technology and human
cognition by extracting the relevant information from the pile of data. In the
present work, scientific information regarding the Friction Stir Welding of
Aluminum alloys was collected from the abstract of scholarly research papers.
For extracting the relevant information from these research abstracts four
Natural Language Processing based algorithms i.e. Latent Semantic Analysis
(LSA), Luhn Algorithm, Lex Rank Algorithm, and KL-Algorithm were used. In order
to evaluate the accuracy score of these algorithms, Recall-Oriented Understudy
for Gisting Evaluation (ROUGE) was used. The results showed that the Luhn
Algorithm resulted in the highest f1-Score of 0.413 in comparison to other
algorithms.
- Abstract(参考訳): テキスト要約(text summarization)は、大きなテキストをいくつかの重要な要素に凝縮し、コンテンツの全体的な印象を与える技術である。
誰かが大量の情報を迅速かつ正確に要約する必要があるとき、それは不可欠になる。
手動で行えば、テキストの要約はコストと時間がかかります。
自然言語処理(NLP)は、人工知能のサブディビジョンであり、データの山から関連する情報を抽出することで、技術と人間の認知のギャップを狭める。
本研究は, 研究論文の要約から, アルミニウム合金の摩擦スターリングに関する科学的情報を集めたものである。
これらの研究から関連する情報を抽出するために、4つの自然言語処理に基づくアルゴリズム、すなわちLatent Semantic Analysis (LSA), Luhn Algorithm, Lex Rank Algorithm, KL-Algorithmが用いられた。
これらのアルゴリズムの精度を評価するために, Gisting Evaluation (ROUGE) のためのRecall-Oriented Understudyを用いた。
その結果,luhnアルゴリズムは他のアルゴリズムと比較してf1スコアが0.413であることがわかった。
関連論文リスト
- GigaCheck: Detecting LLM-generated Content [72.27323884094953]
本稿では,GigaCheckを提案することによって生成したテキスト検出の課題について検討する。
本研究は,LLM生成テキストとLLM生成テキストを区別する手法と,Human-Machine協調テキストにおけるLLM生成間隔を検出する手法について検討する。
具体的には,テキスト内のAI生成間隔をローカライズするために,コンピュータビジョンから適応したDETRのような検出モデルと組み合わせて,微調整の汎用LLMを用いる。
論文 参考訳(メタデータ) (2024-10-31T08:30:55Z) - A Universal Prompting Strategy for Extracting Process Model Information from Natural Language Text using Large Language Models [0.8899670429041453]
生成型大規模言語モデル(LLM)は,広範囲なデータを必要とすることなく,非常に高品質なNLPタスクを解くことができることを示す。
新たなプロンプト戦略に基づいて,LLMが最先端の機械学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-26T06:39:35Z) - From Decoding to Meta-Generation: Inference-time Algorithms for Large Language Models [63.188607839223046]
この調査は、推論中に計算をスケールするメリットに焦点を当てている。
我々はトークンレベルの生成アルゴリズム、メタジェネレーションアルゴリズム、効率的な生成という3つの領域を統一的な数学的定式化の下で探索する。
論文 参考訳(メタデータ) (2024-06-24T17:45:59Z) - The CLRS-Text Algorithmic Reasoning Language Benchmark [48.45201665463275]
CLRS-TextはCLRSベンチマークのテキストバージョンである。
CLRS-Textは、30の多様な、挑戦的なアルゴリズムタスクのためのトレースデータを手続き的に生成することができる。
このベンチマークでは、様々なLMをジェネラリストエグゼクタとして微調整し評価する。
論文 参考訳(メタデータ) (2024-06-06T16:29:25Z) - Performance Prediction of Data-Driven Knowledge summarization of High
Entropy Alloys (HEAs) literature implementing Natural Language Processing
algorithms [0.0]
自然言語処理(NLP)の目標は、マシンインテリジェンスに人間の脳と同じように言葉を処理させることだ。
Geneism, Sumy, Luhn, Latent Semantic Analysis (LSA), Kull-back-Liebler (KL) al-gorithmの5つのNLPアルゴリズムが実装されている。
Luhnアルゴリズムは、他の使われているアルゴリズムと比較して知識要約タスクの精度が最も高い。
論文 参考訳(メタデータ) (2023-11-06T16:22:32Z) - Relation-aware Ensemble Learning for Knowledge Graph Embedding [68.94900786314666]
我々は,既存の手法を関係性に配慮した方法で活用し,アンサンブルを学習することを提案する。
関係認識アンサンブルを用いてこれらのセマンティクスを探索すると、一般的なアンサンブル法よりもはるかに大きな検索空間が得られる。
本稿では,リレーショナルなアンサンブル重みを独立に検索する分割探索合成アルゴリズムRelEns-DSCを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:40:12Z) - A Gold Standard Dataset for the Reviewer Assignment Problem [117.59690218507565]
類似度スコア(Similarity score)とは、論文のレビューにおいて、レビュアーの専門知識を数値で見積もるものである。
私たちのデータセットは、58人の研究者による477の自己申告された専門知識スコアで構成されています。
2つの論文をレビュアーに関連付けるタスクは、簡単なケースでは12%~30%、ハードケースでは36%~43%である。
論文 参考訳(メタデータ) (2023-03-23T16:15:03Z) - Graph-based Semantical Extractive Text Analysis [0.0]
本研究では,テキストの部分間の意味的類似性を組み込むことで,TextRankアルゴリズムの結果を改善する。
キーワード抽出とテキスト要約とは別に,本フレームワークに基づくトピッククラスタリングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-12-19T18:30:26Z) - Using the Full-text Content of Academic Articles to Identify and
Evaluate Algorithm Entities in the Domain of Natural Language Processing [7.163189900803623]
本稿では、自然言語処理(NLP)の分野を例として取り上げ、この分野の学術論文からアルゴリズムを同定する。
論文内容を手動で注釈付けしてアルゴリズムの辞書を構築し、辞書にアルゴリズムを含む文を辞書ベースのマッチングにより抽出する。
アルゴリズムに言及する記事の数は、そのアルゴリズムの影響を分析する指標として使用される。
論文 参考訳(メタデータ) (2020-10-21T08:24:18Z) - Feature Extraction of Text for Deep Learning Algorithms: Application on
Fake News Detection [0.0]
ディープラーニングアルゴリズムとニュースのオリジナルテキストのアルファベット周波数を使って、アルファベットのシーケンスに関する情報がなくても、偽ニュースや信頼できるニュースを高精度に分類することができることが示される。
アルファベットの周波数には、原文の複雑な文脈や意味を理解するのに有用な特徴がいくつか含まれているようである。
論文 参考訳(メタデータ) (2020-10-12T07:43:01Z) - Discovering Reinforcement Learning Algorithms [53.72358280495428]
強化学習アルゴリズムは、いくつかのルールの1つに従ってエージェントのパラメータを更新する。
本稿では,更新ルール全体を検出するメタラーニング手法を提案する。
これには、一連の環境と対話することで、"何を予測するか"(例えば、値関数)と"どのように学習するか"の両方が含まれている。
論文 参考訳(メタデータ) (2020-07-17T07:38:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。