論文の概要: CogErgLLM: Exploring Large Language Model Systems Design Perspective Using Cognitive Ergonomics
- arxiv url: http://arxiv.org/abs/2407.02885v4
- Date: Sun, 29 Sep 2024 13:15:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 22:01:45.941566
- Title: CogErgLLM: Exploring Large Language Model Systems Design Perspective Using Cognitive Ergonomics
- Title(参考訳): CogErgLLM:認知エルゴノミクスを用いた大規模言語モデルシステム設計の展望
- Authors: Azmine Toushik Wasi, Mst Rafia Islam,
- Abstract要約: LLMと認知エルゴノミクスを統合することは、人間とAIの相互作用における安全性、信頼性、ユーザ満足度を改善するために重要である。
現在のLLMの設計は、この統合を欠いていることが多く、結果として人間の認知能力や限界と完全に一致しない可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Integrating cognitive ergonomics with LLMs is crucial for improving safety, reliability, and user satisfaction in human-AI interactions. Current LLM designs often lack this integration, resulting in systems that may not fully align with human cognitive capabilities and limitations. This oversight exacerbates biases in LLM outputs and leads to suboptimal user experiences due to inconsistent application of user-centered design principles. Researchers are increasingly leveraging NLP, particularly LLMs, to model and understand human behavior across social sciences, psychology, psychiatry, health, and neuroscience. Our position paper explores the need to integrate cognitive ergonomics into LLM design, providing a comprehensive framework and practical guidelines for ethical development. By addressing these challenges, we aim to advance safer, more reliable, and ethically sound human-AI interactions.
- Abstract(参考訳): LLMと認知エルゴノミクスを統合することは、人間とAIの相互作用における安全性、信頼性、ユーザ満足度を改善するために重要である。
現在のLLMの設計は、この統合を欠いていることが多く、結果として人間の認知能力や限界と完全に一致しない可能性がある。
この監視は、LCM出力のバイアスを悪化させ、ユーザ中心の設計原則の一貫性のない適用により、最適なユーザエクスペリエンスをもたらす。
研究者たちは、NLP、特にLSMを利用して、社会科学、心理学、精神医学、健康、神経科学にまたがる人間の行動をモデル化し、理解している。
本稿では,認知エルゴノミクスをLCM設計に統合する必要性を考察し,倫理開発のための包括的枠組みと実践的ガイドラインを提供する。
これらの課題に対処することで、より安全で信頼性が高く、倫理的に健全な人間とAIのインタラクションを促進することを目指している。
関連論文リスト
- Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Predicting and Understanding Human Action Decisions: Insights from Large Language Models and Cognitive Instance-Based Learning [0.0]
大きな言語モデル(LLM)は、様々なタスクにまたがってその能力を実証している。
本稿では,LLMの推論と生成能力を利用して,2つの逐次意思決定タスクにおける人間の行動を予測する。
我々は,LLMの性能を,人間の経験的意思決定を模倣した認知的インスタンスベース学習モデルと比較した。
論文 参考訳(メタデータ) (2024-07-12T14:13:06Z) - An Empirical Design Justice Approach to Identifying Ethical Considerations in the Intersection of Large Language Models and Social Robotics [0.31378963995109616]
大規模言語モデル(LLM)の社会ロボティクスへの統合は、ユニークな倫理的課題と社会的影響を示す。
本研究は、これらの2つの技術の設計と開発に生じる倫理的考察を特定することを目的としている。
論文 参考訳(メタデータ) (2024-06-10T15:53:50Z) - The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Addressing Social Misattributions of Large Language Models: An HCXAI-based Approach [45.74830585715129]
我々は,大規模言語モデル(LLM)における社会貢献のリスクに対処するために,社会透明性(ST)フレームワークの拡張を提案する。
LLMは、デザイナーの意図とユーザの社会的属性に対する認識のミスマッチを引き起こし、感情的な操作や危険な行動を促進するリスクを負う。
設計者やユーザによるLSMに割り当てられた特定の社会的属性を明らかにするため,第5の"W-question"によるSTフレームワークの拡張を提案する。
論文 参考訳(メタデータ) (2024-03-26T17:02:42Z) - Reading Users' Minds from What They Say: An Investigation into LLM-based Empathic Mental Inference [6.208698652041961]
人間中心の設計では、ユーザエクスペリエンスの包括的で詳細な理解を開発することが最重要である。
人間の大きな集団の 精神状態の正確な理解は 今も重要な課題です
本稿では,大規模言語モデル(LLM)を用いたメンタル推論タスクの実施について検討する。
論文 参考訳(メタデータ) (2024-03-20T04:57:32Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - Rethinking Machine Unlearning for Large Language Models [85.92660644100582]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。