論文の概要: The Ethics Engine: A Modular Pipeline for Accessible Psychometric Assessment of Large Language Models
- arxiv url: http://arxiv.org/abs/2510.11742v1
- Date: Sat, 11 Oct 2025 00:09:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.023275
- Title: The Ethics Engine: A Modular Pipeline for Accessible Psychometric Assessment of Large Language Models
- Title(参考訳): 倫理エンジン:大規模言語モデルのアクセシブル心理学的評価のためのモジュールパイプライン
- Authors: Jake Van Clief, Constantine Kyritsopoulos,
- Abstract要約: この研究は、大規模言語モデルの心理測定評価を研究ツールに変換するモジュール型のPythonパイプラインであるEthics Engineを提示する。
このパイプラインは、インフラストラクチャ設計がAI研究への参加をいかに拡大するかを示すものだ。
このようなツールは、科学的な厳格さを維持しながら技術的障壁を低くすることで、AI研究の景観を根本的に変えている、と私たちは主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Large Language Models increasingly mediate human communication and decision-making, understanding their value expression becomes critical for research across disciplines. This work presents the Ethics Engine, a modular Python pipeline that transforms psychometric assessment of LLMs from a technically complex endeavor into an accessible research tool. The pipeline demonstrates how thoughtful infrastructure design can expand participation in AI research, enabling investigators across cognitive science, political psychology, education, and other fields to study value expression in language models. Recent adoption by University of Edinburgh researchers studying authoritarianism validates its research utility, processing over 10,000 AI responses across multiple models and contexts. We argue that such tools fundamentally change the landscape of AI research by lowering technical barriers while maintaining scientific rigor. As LLMs increasingly serve as cognitive infrastructure, their embedded values shape millions of daily interactions. Without systematic measurement of these value expressions, we deploy systems whose moral influence remains uncharted. The Ethics Engine enables the rigorous assessment necessary for informed governance of these influential technologies.
- Abstract(参考訳): 大規模言語モデルがますます人間のコミュニケーションと意思決定を仲介するにつれて、その価値表現を理解することは、分野をまたいだ研究にとって重要になる。
この研究は、LLMの心理的評価を技術的に複雑な取り組みからアクセス可能な研究ツールに変換するモジュール型のPythonパイプラインであるEthics Engineを提示する。
このパイプラインは、思慮深いインフラストラクチャ設計がAI研究への参加をいかに拡大するかを示し、認知科学、政治心理学、教育、その他の分野の研究者が言語モデルにおける価値表現を研究することを可能にする。
権威主義を研究するエディンバラ大学の研究者による最近の採用は、複数のモデルとコンテキストにまたがる1万以上のAI応答を処理する、その研究ユーティリティを検証している。
このようなツールは、科学的な厳格さを維持しながら技術的障壁を低くすることで、AI研究の景観を根本的に変えている、と私たちは主張する。
LLMが認知基盤として機能するにつれて、その組込み値は数百万の日々のインタラクションを形作る。
これらの価値表現の体系的な測定がなければ、道徳的な影響を受けないシステムを展開する。
倫理エンジンは、これらの影響力のある技術の情報ガバナンスに必要な厳格な評価を可能にする。
関連論文リスト
- Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation [58.064940977804596]
多くの新しいAIモデルとツールが提案され、世界中の研究者や学者が研究をより効果的かつ効率的に実施できるようにすることを約束している。
これらのツールの欠点と誤用の可能性に関する倫理的懸念は、議論の中で特に顕著な位置を占める。
論文 参考訳(メタデータ) (2025-02-07T18:26:45Z) - Survey on Vision-Language-Action Models [0.2636873872510828]
この研究は、オリジナルの研究を表現していないが、AIが文学レビューの自動化にどのように役立つかを強調している。
今後の研究は、AI支援文学レビューのための構造化されたフレームワークの開発に焦点を当てる。
論文 参考訳(メタデータ) (2025-02-07T11:56:46Z) - Can We Trust AI Agents? A Case Study of an LLM-Based Multi-Agent System for Ethical AI [10.084913433923566]
AIベースのシステムは、多様なタスクをサポートすることによって数百万に影響を及ぼすが、誤情報、偏見、誤用といった問題に直面している。
本研究では,Large Language Models (LLM) を用いたAI倫理の実践について検討する。
エージェントがAIインシデントデータベースから現実のAI倫理問題に関する構造化された議論を行うプロトタイプを設計する。
論文 参考訳(メタデータ) (2024-10-25T20:17:59Z) - Are Large Language Models the New Interface for Data Pipelines? [3.5021689991926377]
言語モデル(Language Model)とは、人間のコミュニケーションを理解し、生成するために設計された様々な種類のモデルを含む用語である。
大規模言語モデル (LLM) は、人間のような流布やコヒーレンスでテキストを処理する能力によって注目されている。
論文 参考訳(メタデータ) (2024-06-06T08:10:32Z) - Can AI Serve as a Substitute for Human Subjects in Software Engineering
Research? [24.39463126056733]
本稿では,人工知能(AI)の能力を活用したソフトウェア工学研究における定性データ収集手法を提案する。
定性的データの代替源としてAI生成合成テキストの可能性を探る。
観察研究とユーザ評価における人間の行動のエミュレートを目的とした新しい基礎モデルの開発について論じる。
論文 参考訳(メタデータ) (2023-11-18T14:05:52Z) - Large Language Models for Information Retrieval: A Survey [83.75872593741578]
情報検索は、項ベースの手法から高度なニューラルモデルとの統合へと進化してきた。
近年の研究では、大規模言語モデル(LLM)を活用してIRシステムの改善が試みられている。
LLMとIRシステムの合流点を探索し、クエリリライト、リトリバー、リランカー、リーダーといった重要な側面を含む。
論文 参考訳(メタデータ) (2023-08-14T12:47:22Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。