論文の概要: Perceived Trustworthiness of Natural Language Generators
- arxiv url: http://arxiv.org/abs/2305.18176v1
- Date: Mon, 29 May 2023 16:09:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 14:22:29.783141
- Title: Perceived Trustworthiness of Natural Language Generators
- Title(参考訳): 自然言語生成装置の信頼性評価
- Authors: Beatriz Cabrero-Daniel and Andrea Sanagust\'in Cabrero
- Abstract要約: 本稿は,異なるユーザが自然言語生成ツールをどのように認識し,採用しているかを理解することの課題に対処する。
また、自然言語生成ツールの利点と限界についても論じている。
この論文は、異なるユーザー特性が、機械生成テキストの品質と全体的な信頼性に対する信念をいかに形作るかに光を当てている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Natural Language Generation tools, such as chatbots that can generate
human-like conversational text, are becoming more common both for personal and
professional use. However, there are concerns about their trustworthiness and
ethical implications. The paper addresses the problem of understanding how
different users (e.g., linguists, engineers) perceive and adopt these tools and
their perception of machine-generated text quality. It also discusses the
perceived advantages and limitations of Natural Language Generation tools, as
well as users' beliefs on governance strategies. The main findings of this
study include the impact of users' field and level of expertise on the
perceived trust and adoption of Natural Language Generation tools, the users'
assessment of the accuracy, fluency, and potential biases of machine-generated
text in comparison to human-written text, and an analysis of the advantages and
ethical risks associated with these tools as identified by the participants.
Moreover, this paper discusses the potential implications of these findings for
enhancing the AI development process. The paper sheds light on how different
user characteristics shape their beliefs on the quality and overall
trustworthiness of machine-generated text. Furthermore, it examines the
benefits and risks of these tools from the perspectives of different users.
- Abstract(参考訳): ヒューマンライクな会話テキストを生成するチャットボットのような自然言語生成ツールは、個人用と専門用の両方で一般的になっています。
しかし、その信頼性と倫理的影響には懸念がある。
この論文は、異なるユーザ(例えば言語学者、エンジニア)がこれらのツールをどのように認識し、採用し、機械生成のテキスト品質に対する認識を理解しているかを理解する問題に対処する。
また、自然言語生成ツールの持つメリットや限界、およびガバナンス戦略に対するユーザの信念についても論じている。
本研究の主な成果は、自然言語生成ツールの信頼と採用に対する利用者の分野や専門知識のレベルの影響、人文テキストと比較して、機械生成テキストの正確性、流布性、潜在的なバイアスに対するユーザの評価、これらのツールに関連する利点と倫理的リスクの分析である。
さらに,これらの知見がAI開発プロセスの強化にもたらす影響についても論じる。
この論文は、異なるユーザー特性が、機械生成テキストの品質と全体的な信頼性に対する信念をいかに形作るかに光を当てている。
さらに、異なるユーザの視点から、これらのツールのメリットとリスクについても検討する。
関連論文リスト
- Beyond Turing Test: Can GPT-4 Sway Experts' Decisions? [14.964922012236498]
本稿では,生成したテキストが読者の判断にどう影響するかを,アマチュアと専門家の両方に焦点をあてる。
以上の結果から,GPT-4はアマチュアとプロの双方の意思決定に影響を及ぼす説得的分析を生ずる可能性が示唆された。
その結果、観客反応による実世界評価と、生成モデルによく用いられる現在の多次元評価器との間に高い相関関係が示された。
論文 参考訳(メタデータ) (2024-09-25T07:55:36Z) - Detection of Machine-Generated Text: Literature Survey [0.0]
本研究の目的は,機械生成テキスト分野における成果と成果をコンパイルし,合成することである。
また、機械が生成するテキストの傾向を概観し、より大きな社会的意味を探求する。
論文 参考訳(メタデータ) (2024-01-02T01:44:15Z) - RELIC: Investigating Large Language Model Responses using Self-Consistency [58.63436505595177]
LLM(Large Language Models)は、フィクションと事実を混同し、幻覚として知られる非事実コンテンツを生成することで有名である。
本稿では,ユーザが生成したテキストの信頼性を把握できる対話型システムを提案する。
論文 参考訳(メタデータ) (2023-11-28T14:55:52Z) - Do You Trust ChatGPT? -- Perceived Credibility of Human and AI-Generated
Content [0.8602553195689513]
本稿では,人文作家が生み出すコンテンツの信頼性と,大規模言語モデルが生み出すコンテンツの信頼性について考察する。
驚いたことに、私たちの結果は、ユーザインターフェースのプレゼンテーションに関わらず、参加者は同様の信頼性のレベルを考慮しがちであることを示した。
参加者はまた、人間とAIが生成したコンテンツの間の能力と信頼性に関する異なる認識を報告していない。
論文 参考訳(メタデータ) (2023-09-05T18:29:29Z) - Analysis of the Evolution of Advanced Transformer-Based Language Models:
Experiments on Opinion Mining [0.5735035463793008]
本稿では,最先端のトランスフォーマーに基づく言語モデルの意見マイニングにおける挙動について検討する。
私たちの比較研究は、フォーカスするアプローチに関して、プロダクションエンジニアがリードし、道を開く方法を示しています。
論文 参考訳(メタデータ) (2023-08-07T01:10:50Z) - Natural Language Decompositions of Implicit Content Enable Better Text
Representations [56.85319224208865]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - Interactive Natural Language Processing [67.87925315773924]
対話型自然言語処理(iNLP)は,NLP分野における新しいパラダイムとして登場した。
本稿では,iNLPの概念の統一的定義と枠組みを提案することから,iNLPに関する包括的調査を行う。
論文 参考訳(メタデータ) (2023-05-22T17:18:29Z) - Unlocking the Potential of ChatGPT: A Comprehensive Exploration of its Applications, Advantages, Limitations, and Future Directions in Natural Language Processing [4.13365552362244]
ChatGPTはチャットボット、コンテンツ生成、言語翻訳、パーソナライズされたレコメンデーション、医療診断や治療など、多くの分野でうまく適用されてきた。
これらの応用におけるその成功は、人間のような応答を生成し、自然言語を理解し、異なる文脈に適応する能力に起因している。
この記事では、ChatGPTとその応用、利点、限界について概観する。
論文 参考訳(メタデータ) (2023-03-27T21:27:58Z) - COFFEE: Counterfactual Fairness for Personalized Text Generation in
Explainable Recommendation [56.520470678876656]
ユーザ記述テキストに固有のバイアスは、言語品質の異なるレベルとユーザの保護された属性を関連付けることができる。
説明生成における測度特異的な対実的公正性を実現するための一般的な枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-14T02:29:10Z) - AI Explainability 360: Impact and Design [120.95633114160688]
2019年、私たちはAI Explainability 360(Arya et al. 2020)を開発しました。
本稿では,いくつかのケーススタディ,統計,コミュニティフィードバックを用いて,ツールキットが与える影響について検討する。
また,ツールキットのフレキシブルな設計,使用例,利用者が利用可能な教育資料や資料についても述べる。
論文 参考訳(メタデータ) (2021-09-24T19:17:09Z) - On-the-Fly Controlled Text Generation with Experts and Anti-Experts [70.41630506059113]
本稿では,DExperts: Decoding-time Expertsを提案する。
私たちのアンサンブルの下では、出力トークンは専門家によって可能性が高く、おそらく反専門家によってのみ高い確率を得ます。
論文 参考訳(メタデータ) (2021-05-07T01:19:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。