导读 多年来,普通人越来越难以信任 Facebook 和谷歌等一些大型科技公司。一份新报告浮出水面,声称谷歌在 2020 年采取行动,以加强对公司内

多年来,普通人越来越难以信任 Facebook 和谷歌等一些大型科技公司。一份新报告浮出水面,声称谷歌在 2020 年采取行动,以加强对公司内部研究人员及其发表的论文的控制。报道称,谷歌发起了一项“敏感话题”审查,并至少在三个案例中要求作者在研究中采取积极的语气。

据称,谷歌告诉至少三位作者不要对其技术持否定态度。谷歌正在做的事情的消息出现在谷歌内部通讯和对参与这项工作的研究人员的采访中。这家科技公司实施的新审查程序要求研究人员在进行面部和情绪分析以及种族、性别或政治派别分类等主题之前咨询法律、政策和公共关系团队。

这些细节来自解释其政策的内部谷歌网页。谷歌表示,一些技术进步越来越多地导致看似无害的项目引发道德、声誉、监管或法律问题。虽然该网页没有注明日期,但路透社报道称,现有员工表示该政策于 6 月开始实施。

谷歌的“敏感话题”程序在其对文件的标准审查中增加了另一轮检查,以发现诸如披露商业秘密等潜在问题。在某些情况下,据报道,谷歌在后期干预了这项研究。在一个例子中,据报道,谷歌官员进行了干预,告诉研究内容推荐技术的研究人员“要格外小心,以保持积极的语气”。

在那种情况下,据报道经理补充说,该请求并不意味着“我们应该躲避软件提出的真正挑战”。在这种情况下,研究人员据称更新了他们的研究,以删除对 Google 产品的所有引用。一个原始草案提到了 YouTube。在领导着一个专注于道德和人工智能软件的 12 人团队的一位名叫 Timnit Gebru 的科学家突然被解雇后,谷歌的政策走到了最前沿。研究人员声称,她在质疑一项不发表研究的命令后被解雇,该命令声称人工智能能够模仿语音可能会对边缘化人群不利。