YouTube通过针对创作者的新透明度规则来处理人工智能生成的内容
生成式人工智能现在非常流行。在OpenAI的ChatGPT、谷歌的Gemini和微软的DALL-E之间,不乏正在开发的令人印象深刻的人工智能模型。然而,重要的是要考虑与这些先进技术相关的道德影响和潜在风险,特别是当它涉及内容创作时。这已经成为一时的热门话题。越来越明显的是,需要某种解决方案来解决深度造假技术和其他人工智能生成内容引起的问题。
Meta旗下的Facebook、Instagram和Threads等社交媒体平台已经提出了这个问题,并开始采取措施来解决这个问题。现在,YouTube也正在通过一种新工具来应对这一挑战,该工具要求创作者在其视频具有真实的人工智能生成的更改时进行披露。
在今天的社区帖子中,YouTube宣布了针对创作者在平台上上传人工智能生成内容的新准则和要求。现在,在上传内容时,系统会提示创作者指出他们的视频是否包含“有意义的更改或合成生成”的元素,这些元素可能会被误认为是真实的镜头。对于简单的编辑、特效或明显不切实际的人工智能创作来说,这种披露是不必要的。
YouTube将显示标签,向观众通报人工智能生成的内容。大多数时候,这些标签会出现在视频的扩展描述中。对于讨论健康、政治或金融等敏感主题的视频,标签将放在视频本身的显着位置。
在某些创作者未透露的情况下,YouTube可能会对视频贴上标签,尤其是当视频涉及敏感主题时。虽然不披露信息不会立即受到处罚,但YouTube计划在未来实施这些处罚,其中可能包括删除内容或暂停YouTube合作伙伴计划。
新的标签系统首先针对移动观众推出,并将逐渐扩展到桌面和电视。创作者的披露选项将首先在桌面上访问,然后在移动设备上访问。此外,YouTube正在寻求反馈,以随着流程的发展不断完善该流程。