論文の概要: Human-Centric NLP or AI-Centric Illusion?: A Critical Investigation
- arxiv url: http://arxiv.org/abs/2412.10939v1
- Date: Sat, 14 Dec 2024 19:16:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 14:03:04.395383
- Title: Human-Centric NLP or AI-Centric Illusion?: A Critical Investigation
- Title(参考訳): 人間中心性NLPかAI中心性錯覚か? : 批判的考察
- Authors: Piyapath T Spencer,
- Abstract要約: 本研究は、人間中心性の概念と実際の実践との間に有意なギャップを見出したものである。
この論文は人間中心のNLPの再定義を提唱し、現実の実用性や社会的含意に焦点をあてている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Human-Centric NLP often claims to prioritise human needs and values, yet many implementations reveal an underlying AI-centric focus. Through an analysis of case studies in language modelling, behavioural testing, and multi-modal alignment, this study identifies a significant gap between the ideas of human-centricity and actual practices. Key issues include misalignment with human-centred design principles, the reduction of human factors to mere benchmarks, and insufficient consideration of real-world impacts. The discussion explores whether Human-Centric NLP embodies true human-centred design, emphasising the need for interdisciplinary collaboration and ethical considerations. The paper advocates for a redefinition of Human-Centric NLP, urging a broader focus on real-world utility and societal implications to ensure that language technologies genuinely serve and empower users.
- Abstract(参考訳): 人間中心のNLPは、しばしば人間の要求と価値を優先すると主張するが、多くの実装は、基礎となるAI中心の焦点を明らかにしている。
言語モデリング、行動テスト、マルチモーダルアライメントにおけるケーススタディの分析を通じて、人間の中心性の概念と実際の実践の間に大きなギャップがあることを明らかにする。
主な課題は、人間中心の設計原則のミスアライメント、単なるベンチマークに対する人間の要因の削減、現実世界への影響の考慮不足などである。
この議論は、人間中心のNLPが真の人間中心のデザインを具現化し、学際的なコラボレーションと倫理的考察の必要性を強調しているかどうかを考察する。
本論文は,人間中心NLPの再定義を提唱し,言語技術が真にユーザに提供することを保証するために,現実のユーティリティと社会的意味にもっと焦点をあてることを提案する。
関連論文リスト
- Aligning Generalisation Between Humans and Machines [74.120848518198]
近年のAIの進歩は、科学的発見と意思決定支援において人間を支援できる技術をもたらしたが、民主主義と個人を妨害する可能性がある。
AIの責任ある使用は、ますます人間とAIのチームの必要性を示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - AI Alignment through Reinforcement Learning from Human Feedback? Contradictions and Limitations [0.2106667480549292]
我々は、誠実さ、無害さ、役に立つという、広く追求されたアライメント目標の欠点を示す。
我々はRLxFの目標に固有の緊張と矛盾を強調する。
我々は、RLxFの社会技術的影響を批判的に評価するよう研究者や実践者に促すことで結論付ける。
論文 参考訳(メタデータ) (2024-06-26T13:42:13Z) - Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
我々は、2019年から2024年1月までに400以上の論文を体系的にレビューし、HCI(Human-Computer Interaction)、自然言語処理(NLP)、機械学習(ML)といった複数の分野にまたがって紹介する。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - ConSiDERS-The-Human Evaluation Framework: Rethinking Human Evaluation for Generative Large Language Models [53.00812898384698]
生成型大規模言語モデル(LLM)の人間による評価は多分野にわたる作業であるべきだと論じる。
認知バイアスが、流動的な情報や真理をいかに説明するか、そして、認識の不確実性が、Likertのような評価スコアの信頼性にどのように影響するかを強調します。
本稿では,ConSiDERS-The-Human評価フレームワークを提案する。一貫性,スコーリング基準,差別化,ユーザエクスペリエンス,責任,スケーラビリティの6つの柱からなる。
論文 参考訳(メタデータ) (2024-05-28T22:45:28Z) - Collaborative Evaluation: Exploring the Synergy of Large Language Models
and Humans for Open-ended Generation Evaluation [71.76872586182981]
大規模言語モデル(LLM)は、人間の評価に代わるスケーラブルで費用対効果の高い代替品として登場した。
本稿では,タスク固有の基準のチェックリストとテキストの詳細な評価を含む協調評価パイプラインCoEvalを提案する。
論文 参考訳(メタデータ) (2023-10-30T17:04:35Z) - Unmasking Nationality Bias: A Study of Human Perception of Nationalities
in AI-Generated Articles [10.8637226966191]
自然言語処理(NLP)モデルにおける国籍バイアスの可能性について,人間の評価手法を用いて検討した。
本研究は、テキスト生成モデルにおける国籍バイアスの影響を識別し、理解するために、2段階の混合手法を用いている。
以上の結果から,NLPモデルでは既存の社会的バイアスを再現・増幅する傾向があり,社会工学的な場面で使用すれば害につながる可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-08T15:46:27Z) - UniHCP: A Unified Model for Human-Centric Perceptions [75.38263862084641]
我々は、人間中心知覚のための統一モデル(UniHCP)を提案する。
UniHCPは、単純なエンドツーエンドで広範囲の人間中心のタスクをプレーンビジョントランスフォーマーアーキテクチャと統合する。
33の人間中心のデータセットで大規模な共同トレーニングを行うことで、UniHCPは直接評価によって強いベースラインを上回ります。
論文 参考訳(メタデータ) (2023-03-06T07:10:07Z) - An Objective Laboratory Protocol for Evaluating Cognition of Non-Human
Systems Against Human Cognition [0.0]
人間に匹敵する認知能力を持つ非人間システムの存在は、安全と倫理に関するかつて哲学的な疑問を緊急に提起するかもしれない。
これは、人間に匹敵する認知能力を持つ非人間システムの存在は、安全と倫理の一度哲学的な質問を迅速かつ緊急にする可能性があるため、重要です。
論文 参考訳(メタデータ) (2021-02-17T18:40:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。