論文の概要: ChatGPT as the Transportation Equity Information Source for Scientific
Writing
- arxiv url: http://arxiv.org/abs/2303.11158v1
- Date: Fri, 10 Mar 2023 16:21:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-25 03:36:45.845093
- Title: ChatGPT as the Transportation Equity Information Source for Scientific
Writing
- Title(参考訳): 科学書誌における交通情報源としてのChatGPT
- Authors: Boniphace Kutela, Shoujia Li, Subasish Das, and Jinli Liu
- Abstract要約: 本研究では,ChatGPTが生成する交通情報の内容と有用性について検討した。
Web of Science(WoS)リポジトリから取得した152の論文を活用している。
その結果,ChatGPTと人文抽象の類似性が弱いことが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transportation equity is an interdisciplinary agenda that requires both
transportation and social inputs. Traditionally, transportation equity
information are sources from public libraries, conferences, televisions, social
media, among other. Artificial intelligence (AI) tools including advanced
language models such as ChatGPT are becoming favorite information sources.
However, their credibility has not been well explored. This study explored the
content and usefulness of ChatGPT-generated information related to
transportation equity. It utilized 152 papers retrieved through the Web of
Science (WoS) repository. The prompt was crafted for ChatGPT to provide an
abstract given the title of the paper. The ChatGPT-based abstracts were then
compared to human-written abstracts using statistical tools and unsupervised
text mining. The results indicate that a weak similarity between ChatGPT and
human-written abstracts. On average, the human-written abstracts and ChatGPT
generated abstracts were about 58% similar, with a maximum and minimum of 97%
and 1.4%, respectively. The keywords from the abstracts of papers with over the
mean similarity score were more likely to be similar whereas those from below
the average score were less likely to be similar. Themes with high similarity
scores include access, public transit, and policy, among others. Further, clear
differences in the key pattern of clusters for high and low similarity score
abstracts was observed. Contrarily, the findings from collocated keywords were
inconclusive. The study findings suggest that ChatGPT has the potential to be a
source of transportation equity information. However, currently, a great amount
of attention is needed before a user can utilize materials from ChatGPT
- Abstract(参考訳): 輸送の公平性は、輸送と社会的インプットの両方を必要とする学際的な議題である。
伝統的に、輸送株式情報は公共図書館、会議、テレビ、ソーシャルメディアなどの情報源である。
ChatGPTのような高度な言語モデルを含む人工知能(AI)ツールは、お気に入りの情報ソースになりつつある。
しかし、その信頼性は十分に調査されていない。
本研究では,ChatGPTが生成する交通情報の内容と有用性について検討した。
Web of Science (WoS)リポジトリから取得した152の論文を利用した。
このプロンプトは、ChatGPTが論文のタイトルの抽象化を提供するために作られた。
その後、ChatGPTベースの抽象文を統計ツールと教師なしテキストマイニングを用いて人間による抽象文と比較した。
その結果,ChatGPTと人文抽象の類似性が弱いことが示唆された。
平均的に、人書き抽象とChatGPT生成抽象は、それぞれ最大で97%、最低で1.4%、約58%類似していた。
平均的類似度スコア以上の論文の要約から得られるキーワードは類似する傾向が強く,平均値以下は類似しない傾向がみられた。
類似度の高いテーマには、アクセス、公共交通機関、ポリシーなどが含まれる。
さらに,高い類似度スコアと低い類似度スコアを示すクラスタのキーパターンの明瞭な差異が観察された。
比較して, 単語のコロケーションによる発見は決定的ではなかった。
この研究は、chatgptが輸送株式情報の源になる可能性を示唆している。
しかし、ChatGPTの素材を利用するには、現在かなりの注意が必要である。
関連論文リスト
- Primacy Effect of ChatGPT [69.49920102917598]
本稿では,ChatGPTの優位性について検討する。
実験と分析により、より信頼性の高いChatGPTベースのソリューションを構築する上で、さらなる洞察が得られればと思っています。
論文 参考訳(メタデータ) (2023-10-20T00:37:28Z) - Chatbot-supported Thesis Writing: An Autoethnographic Report [0.0]
チャットGPTは、学士論文や学生研究論文など、学習者がテキストを生成する必要のあるフォーマットに適用される。
ChatGPTは、論文を書く上で有益なツールとして評価される。
しかし、決定的な論文を書くには、学習者の意味のある関与が必要である。
論文 参考訳(メタデータ) (2023-10-14T09:09:26Z) - What has ChatGPT read? The origins of archaeological citations used by a
generative artificial intelligence application [0.0]
本稿は,ChatGPTの訓練段階に含まれると思われる考古学文献を検証した。
ChatGPTは、一見意味のある参照を提供するが、大きなパーセンテージは虚偽であることが証明された。
ChatGPTが提供するすべての参照が本物であることが判明したことも、Wikipediaのページに引用されている。
論文 参考訳(メタデータ) (2023-08-07T05:06:35Z) - Is ChatGPT Involved in Texts? Measure the Polish Ratio to Detect
ChatGPT-Generated Text [48.36706154871577]
我々はHPPT(ChatGPT-polished academic abstracts)と呼ばれる新しいデータセットを紹介する。
純粋なChatGPT生成テキストの代わりに、人書きとChatGPTポリケートされた抽象文のペアを構成することで、既存のコーパスから分岐する。
また,ChatGPTによる修正の度合いを,オリジナルの人文テキストと比較した革新的な尺度であるPolish Ratio法を提案する。
論文 参考訳(メタデータ) (2023-07-21T06:38:37Z) - CHEAT: A Large-scale Dataset for Detecting ChatGPT-writtEn AbsTracts [10.034193809833372]
悪意のあるユーザーはChatGPTを通じてダミーな学術コンテンツを合成できる。
本稿では,検出アルゴリズムの開発を支援するために,大規模なCHatGPT-writtEn AbsTractデータセット(CHEAT)を提案する。
論文 参考訳(メタデータ) (2023-04-24T11:19:33Z) - ChatGPT Beyond English: Towards a Comprehensive Evaluation of Large
Language Models in Multilingual Learning [70.57126720079971]
大規模言語モデル(LLM)は、自然言語処理(NLP)において最も重要なブレークスルーとして登場した。
本稿では,高,中,低,低リソースの37言語を対象として,ChatGPTを7つのタスクで評価する。
従来のモデルと比較すると,様々なNLPタスクや言語に対するChatGPTの性能は低下していた。
論文 参考訳(メタデータ) (2023-04-12T05:08:52Z) - To ChatGPT, or not to ChatGPT: That is the question! [78.407861566006]
本研究は,ChatGPT検出における最新の手法を包括的かつ現代的に評価するものである。
我々は、ChatGPTと人間からのプロンプトからなるベンチマークデータセットをキュレートし、医療、オープンQ&A、ファイナンスドメインからの多様な質問を含む。
評価の結果,既存の手法ではChatGPT生成内容を効果的に検出できないことがわかった。
論文 参考訳(メタデータ) (2023-04-04T03:04:28Z) - Comparing Abstractive Summaries Generated by ChatGPT to Real Summaries
Through Blinded Reviewers and Text Classification Algorithms [0.8339831319589133]
OpenAIが開発したChatGPTは、言語モデルのファミリに最近追加されたものだ。
自動メトリクスと視覚障害者による抽象要約におけるChatGPTの性能評価を行った。
論文 参考訳(メタデータ) (2023-03-30T18:28:33Z) - Can ChatGPT Understand Too? A Comparative Study on ChatGPT and
Fine-tuned BERT [103.57103957631067]
チャットGPTは、人間の質問に対する流動的で高品質な応答を生成できるため、大きな注目を集めている。
そこで我々は,ChatGPTの理解能力を,最も人気のあるGLUEベンチマークで評価し,より詳細な4種類のBERTスタイルのモデルと比較した。
2)ChatGPTは,感情分析や質問応答タスクにおいて,BERTと同等のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2023-02-19T12:29:33Z) - Exploring the Limits of ChatGPT for Query or Aspect-based Text
Summarization [28.104696513516117]
GPT3やChatGPTのような大規模言語モデル(LLM)は、テキスト要約タスクにこれらのモデルを使用することに大きな関心を寄せている。
最近の研究では、zhang2023ベンチマーキング(zhang2023benchmarking)は、LLMの生成するニュースサマリーがすでに人間と同等であることを示している。
実験の結果,ChatGPTの性能はルージュスコアの点で従来の微調整手法に匹敵することがわかった。
論文 参考訳(メタデータ) (2023-02-16T04:41:30Z) - A Multitask, Multilingual, Multimodal Evaluation of ChatGPT on
Reasoning, Hallucination, and Interactivity [79.12003701981092]
8種類の共通NLPアプリケーションタスクをカバーする23のデータセットを用いてChatGPTの広範な技術的評価を行う。
これらのデータセットと、新たに設計されたマルチモーダルデータセットに基づいて、ChatGPTのマルチタスク、マルチリンガル、マルチモーダルの側面を評価する。
ChatGPTの精度は平均63.41%で、論理的推論、非テキスト的推論、コモンセンス推論の10の異なる推論カテゴリで正確である。
論文 参考訳(メタデータ) (2023-02-08T12:35:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。