谷歌的AI模型“双子座”因偏见图像生成而面临批评

发布时间:2024-03-22 15:54:49 浏览量:201次

快速导读:谷歌因其AI模型“双子座”默认将女性和有色人种描绘为历史上白人和男性形象的图像,而受到批评,并关闭了其图像生成功能。公司公开道歉并承认了这种偏见,并承诺改进。然而,社交媒体上的保守声音现在指责“双子座”存在自由主义偏见。谷歌内部的一些人认为,这一争议凸显了AI模型输出的不断演变的规范。谷歌此前曾努力增加其算法输出的多样性,例如在CEO的图像中展示更多的女性和有色人种。双子座图像生成中的偏见归因于公司的微调过程,在这个过程中,它过度补偿了图像生成器中现有的偏见。

谷歌匆忙发布和质量控制问题

谷歌匆忙发布“双子座”可能导致了AI模型面临的问题。公司在发布AI技术方面一直难以找到合适的节奏,最初由于伦理关切选择不发布一款强大的聊天机器人。然而,在OpenAI的ChatGPT取得成功后,谷歌转变了策略。在竞争的急切中,质量控制似乎受到了影响,导致专家们称之为“彻底的产品失败”。普林斯顿大学教授阿文德·纳拉亚南批评谷歌发布了一个未经测试其生成历史人物图像能力的图像生成器。

AI模型调整中的挑战和判断

微调“双子座”等AI模型的过程涉及人工测试和反馈。然而,“双子座”产生的具有争议的回答可能反映了谷歌迅速训练模型的愿望,忽视了对其行为进行适当检查的问题。AI研究员保罗·克里斯蒂安诺承认,调整AI模型涉及判断,可能无法满足每个人的要求。用于测试“双子座”的问题往往会使聊天机器人陷入争议的领域。克里斯蒂安诺强调,任何使用“更重要”或“更好”等词语的问题都必然是主观的,并且可以有不同的解释。

热门课程推荐

热门资讯

请绑定手机号

x

同学您好!

您已成功报名0元试学活动,老师会在第一时间与您取得联系,请保持电话畅通!
确定