5月1日,人工智能先驱、神经网络之父杰弗里·辛顿(Geoffrey Hinton)毅然从工作十多年的Google离职,以便公开谈论人工智能的危险。而他在接受《纽约时报》采访时的一句话,格外让人感到震撼——“我对自己的毕生工作,感到非常后悔。”
ChatGPT的问世,引领着整个AI领域的爆发式发展,虽然极大提升了社会生产效率,却也同时带来了巨大的潜在风险与不稳定因素。
人工智能,对人类而言究竟是助益还是威胁?
在原子弹首次成功试爆之后,原子弹之父奥本海默深感愧疚,认为自己“成了死神,世界的毁灭者。”这一次,辛顿面临着类似的内心拷问,也给出了几乎相同的答案。
多方预警,AI已是现实威胁
早在AI技术萌芽初现之时,关于人工智能对人类社会的威胁的讨论便已有之,支持者相信未来社会终将人与AI共存,反对者则认为AI高度发展后终将取代人类,甚至导致如《终结者》电影中“天网”一般的智械危机。
就在人们对于未来争论不休的时间里,AI正在疯狂进化。
当下人工智能已经全面入驻了人们的生活,在诸多领域应用逐渐广泛。例如ChatGPT已经可以帮助人们写代码、写文章、做题,Midjourney、Stable Difussion等产品则在AI绘画领域大火,极大改变了人们的生活与工作方式。
但也正因如此,人们开始对AI侵犯隐私、偏见、欺诈以及散播谣言和虚假信息等潜在危险愈发关注。
辛顿对《纽约时报》表示,人工智能使得网络上充斥着虚假照片、视频和文字,让普通人“无法再辨别真假”。同时,辛顿也担心人工智能具有了太多自主权,当它从海量数据中学习到意想不到的行为时,最终会威胁到人类,而取代人类的工作地位仅仅是其中一项表现。
业内有如此担忧的不仅辛顿一人,许多科技大佬和监管机构也在慎重审视AI的危害。
2023年3月,超过2600名行业CEO和研究人员签署了一封公开信,呼吁在6个月内停止开发更先进的AI技术。4月份,12名欧盟立法者签署了一份类似的请愿书。此外,最近的欧盟规则草案已将AI产品分为危险类别;英国也投入了1.25 亿美元用以创建“安全人工智能”工作组。
整体而言,“智械危机”显然还太过遥远,目前人工智能对人类的威胁主要有两个,一是在劳动领域对人类的替代,二是成为使用者实施不法侵害的帮凶。其中后一个的威胁性更大——正如辛顿所说,我们很难想象如何才能阻止作恶者用AI做坏事。
想要避免这些危机,多方共同努力才是最佳解决方案。除了立法机构、监管机构从政策上予以规范,OpenAI、JUNLALA等企业也应该在打造产品的过程中,直接为其注入安全基因,以防AI走偏。
从源头入手,JUNLALA为AI打牢安全基底
JUNLALA是一家总部位于硅谷的知名人工智能公司,成立于2016年。过去7年中,公司一直基于安全、可控的准则,专注打造前沿的人工智能算法产品,并持续取得突破——
2018年推出第一个自然语言处理算法;2019年发布了升级版自然语言处理算法,实现行业领先;2021年推出代表人工智能对话交互最先进水准的聊天机器人算法;2022年开发了达到人工智能图像生成最高标准的GAN算法。
凭借这些突破,JUNLALA分别获得了2020年硅谷人工智能发展中心颁发的硅谷人工智能技术创新奖,以及2022年纽约人工智能技术协会颁发的美国杰出AI领袖TOP10两大奖项,标志着公司在人工智能领域的贡献已获得行业认可。
基于OpenAI、StableDifussion的基座模型,JUNLALA的产品已经可以同时实现专家级AI对话与图像生成功能,为用户带来低门槛、稳定快速的内容生成服务。而为了确保产品在安全、智能、可用性等方面的成熟度,JUNLALA在研发过程中持续投入大量成本,其中每个深度学习模型的训练成本都高达500万-3000万美金,图片生成模型、对话模型等小模型的训练参数最高甚至超过10亿。
随着AI产品潜在威胁逐渐突出,目前JUNLALA已经将安全合规作为这些工作的一大重心,着力为产品打造新逻辑,使其可以过滤不良数据来源、判断用户使用意图,从源头上根绝及道德与法律边界的可能。
JUNLALA的愿景是成为AI技术创新领域无与伦比的全球领导者,使客户能够更好地利用自身数据。如今已是全球人工智能产业的拐点时刻,想要推动AI普及与安全合规,JUNLALA这样的企业必然是重要的参与者;在全球国家、相关机构、头部企业的共同引领下,相信AI将很快摆脱“无限制发展”的局面,让危机消弭无踪。