Discuz! Board

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 24|回复: 0
打印 上一主题 下一主题

简历中的语言模式来

[复制链接]

10

主题

10

帖子

32

积分

新手上路

Rank: 1

积分
32
跳转到指定楼层
楼主
发表于 2024-2-14 16:21:37 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
这使得 ChatGPT 能够编写听起来不像是由机器编写的文章和博客文章。 不幸的是, 自然语言处理模型本质上是有偏见的 ,因为它从人类来源接收信息,而这些信息在很大程度上本质上是有偏见的。 系统的设计方式还引入了固有的偏差,可能导致程序提供不完整或不准确的信息。 ChatGPT 中的偏见示例 ChatGPT 使用的自然语言处理模型存在性别和种族偏见的问题。


亚马逊 在使用 NLP 工具审查求职者的简历时 纳米比亚 WhatsApp 号码列表 发现了这一点。 该工具使用过去筛选当前候选人并确定最佳申请人。然而,由于过去女性代表性不足,该计划无意中偏向男性候选人。 此外,一项基于对互联网上 8000 亿个单词的分析的研究发现,某些群体比其他群体更有可能与负面词汇联系在一起。 对于非裔美国人来说尤其如此。对老年人和残疾人也存在明显的偏见。当 ChatGPT 从网络获取信息时,它可以很容易地反映这些偏见,特别是如果一个人故意试图让程序散布错误信息。





一些人指责 ChatGPT 对保守派存在政治偏见。当《 纽约邮报》 要求 ChatGPT 以《纽约邮报》的风格撰写一篇新闻文章时,该程序拒绝了。 它表示它不会产生煽动性、有偏见的内容。然而,当要求以 CNN 风格撰写新闻文章时,该节目没有任何问题。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|Comsenz Inc.  

GMT+8, 2024-4-30 11:19 , Processed in 0.033971 second(s), 14 queries , Apc On.

Powered by Discuz! X3.1

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表