近日,OpenAI和谷歌 DeepMind 的数名前任和现任员工联名发布公开信,对高级人工智能的潜在风险以及当前缺乏对人工智能科技公司的监管表示担忧。
这封公开信指出,人工智能的发展可能会带来一系列的风险,例如加剧现有社会的不平等、助长操控和虚假信息传播,以及失控的自主人工智能系统可能导致人类灭绝等。
信件随即列出OpenAI、谷歌人工智能实验室Google DeepMind、谷歌和亚马逊支持的AI初创公司Anthropic等官网,以及英美等国政府网站和一些人工智能专家都“已承认存在这些风险”。
信件还称,AI公司们与员工签署了广泛的保密协议,与离职员工签署了不能借由披露AI风险而“对公司进行贬低批评”的严苛条款,整个行业发生过对吹哨人各种形式的报复案件。
因此,公开信要求OpenAI及所有人工智能公司都不得签订或执行避免批评AI风险的保密协议,不能通过妨碍揭露AI风险吹哨人的既得经济利益来打击报复,而且要为现任和前任员工提供“可验证的匿名流程”,以便向公司董事会、监管机构和具有相关专业知识的独立组织提出与AI风险相关的担忧,前提是吹哨人需要对公司的商业机密和其他知识产权利益进行适当保护。
OpenAI在一份声明中为自己的做法进行了辩护,称公司有举报热线等渠道来报告公司存在的问题,并且在有适当的保障措施之前不会发布新技术。谷歌未立即回应置评。