論文の概要: Ground Truths for the Humanities
- arxiv url: http://arxiv.org/abs/2103.12841v1
- Date: Tue, 23 Mar 2021 21:05:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-25 13:53:54.893492
- Title: Ground Truths for the Humanities
- Title(参考訳): 人文科学の基盤的真実
- Authors: Yvette Oortwijn, Hein van den Berg, and Arianna Betti
- Abstract要約: データとその人文表現との忠実な相互作用を保証することは、専門家が構築した基礎的真実に依存するべきです。
データとその人文表現は、専門家が構築した基礎的真実に依存するべきです。
- 参考スコア(独自算出の注目度): 1.0705399532413615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensuring a faithful interaction with data and its representation for
humanities can and should depend on expert-constructed ground truths.
- Abstract(参考訳): データとの忠実な相互作用と人文科学の表現を保証することは、専門家によって構成された基礎的真理に依存するべきである。
関連論文リスト
- Inter-X: Towards Versatile Human-Human Interaction Analysis [100.254438708001]
正確な身体の動きと多様な相互作用パターンを持つデータセットであるInter-Xを提案する。
データセットは、1Kの相互作用シーケンスと8.1Mフレーム以上を含む。
また、Inter-Xには34K以上の微粒な人間のテキスト記述の多義アノテーションも備えています。
論文 参考訳(メタデータ) (2023-12-26T13:36:05Z) - Grounding Gaps in Language Model Generations [67.79817087930678]
大規模言語モデルが人間の接地を反映したテキストを生成するかどうかを考察する。
人間に比べ、LLMは会話の基盤を減らした言語を生成する。
同定された接地ギャップの根源を理解するために,命令チューニングと選好最適化の役割について検討する。
論文 参考訳(メタデータ) (2023-11-15T17:40:27Z) - Personas as a Way to Model Truthfulness in Language Models [23.86655844340011]
大規模な言語モデル(LLM)は、インターネットから大量のテキストで訓練されている。
本稿では,真理ラベルのトレーニングを受けていないLMが真理を知っているように見える理由を説明する。
論文 参考訳(メタデータ) (2023-10-27T14:27:43Z) - Does Collaborative Human-LM Dialogue Generation Help Information
Extraction from Human Dialogues? [55.28340832822234]
実際のアプリケーションにおける人間の対話の問題解決は、既存のWizard-of-Ozコレクションよりもはるかに複雑である。
本稿では,リアルな対話を合成できる人間間対話生成フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-13T20:02:50Z) - The Inconvenient Truths of Ground Truth for Binary Analysis [3.198144010381572]
すべての真実が平等に創造されるわけではない。
本稿では,二項分析のコミュニティに対して,基礎的真理の概念を深く検討するよう呼びかける。
論文 参考訳(メタデータ) (2022-10-26T23:27:57Z) - JECC: Commonsense Reasoning Tasks Derived from Interactive Fictions [75.42526766746515]
本稿では,人間のインタラクティブ・フィクション(IF)ゲームプレイ・ウォークスルーに基づく新しいコモンセンス推論データセットを提案する。
本データセットは,事実知識ではなく,機能的コモンセンス知識ルールの評価に重点を置いている。
実験の結果、導入したデータセットは、以前の機械読影モデルと新しい大規模言語モデルに難題であることが示されている。
論文 参考訳(メタデータ) (2022-10-18T19:20:53Z) - Trust in Language Grounding: a new AI challenge for human-robot teams [14.46779433267854]
調査は、言語基盤における新たな信頼分野に焦点を当てている。
調査には、AI技術、データセット、ユーザインターフェースの観点からの言語基盤研究の概要が含まれている。
言語接地に関連する6つの信頼要因を,人間ロボットのクリーニングチームで実験的に検証した。
論文 参考訳(メタデータ) (2022-09-05T17:23:58Z) - Call for Customized Conversation: Customized Conversation Grounding
Persona and Knowledge [25.378474996192438]
ユーザのペルソナとウィキペディアの知識によって、カスタマイズされた回答が構築される、カスタマイズされた会話データセットのためのコールを導入する。
事前学習した言語モデルの情報的およびカスタマイズされた発話を行う能力を評価する。
論文 参考訳(メタデータ) (2021-12-16T04:44:27Z) - Towards Abstract Relational Learning in Human Robot Interaction [73.67226556788498]
人間は環境における実体を豊かに表現する。
ロボットが人間とうまく対話する必要がある場合、同様の方法で実体、属性、一般化を表現する必要がある。
本研究では,人間とロボットの相互作用を通じて,これらの表現をどのように獲得するかという課題に対処する。
論文 参考訳(メタデータ) (2020-11-20T12:06:46Z) - Beyond Our Behavior: The GDPR and Humanistic Personalization [0.0]
我々は人道主義的パーソナライゼーションの新しいパラダイムを提案する。
非意識的な(有機的)行動と意識的な(反射的)行動の1つとして、暗黙的な(暗黙的な)データ収集と明示的な(暗黙的な)データ収集を区別する。
本稿では,物語の正確さに重きを置くことで,不公平な被験者が行うデータ処理の機会を減らす方法について論じる。
論文 参考訳(メタデータ) (2020-08-31T07:40:09Z) - Improving Factual Consistency Between a Response and Persona Facts [64.30785349238619]
応答生成のためのニューラルネットワークは、意味論的に妥当であるが、必ずしも話者のペルソナを記述する事実と矛盾しない応答を生成する。
我々は,これらのモデルを強化学習により微調整し,応答とペルソナ事実の一貫性と意味的妥当性を明確に把握する効率的な報酬関数を提案する。
論文 参考訳(メタデータ) (2020-04-30T18:08:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。