写在前面
其实这一篇文章很早就在构思中,不过由于各种各样的因素,最终成稿的时间还是比预期稍晚了一些
(其实就是因为懒)。
让我们把视角跨度放在去年的 12 月到今年的 6 月,这在任何历史上都是极短的一段时间,但对于 AI 工业应用来说,确实实在在多了很多里程碑事件(GPT3.5、Diffusion 等)。当然相比于基础设施级别的发展,更多的都是尝鲜探路者的追捧,来的快去得也快;而真正的刚需如“轻舟已过万重山”,在热潮过后继续把 AI 扩散到了产业的方方面面。
相比于几个月之前的万人空巷,现在的人工智能的风口毫无疑问在渐渐退去。火热的 AI 领域进入到了平稳发展的“冷静期”。工业界目前也没有涌现特别多改变行业规则的玩法;早期很多挤破头去尝试 ChatGPT、Midjourney 的玩家,也在大量的使用中因为找不到合适的应用场景而逐渐脱敏,丢去了最初的兴致。Github Trending 也从年初的各种 LLaMA、ChatGLM 的衍生微调模型和 OpenAI 接口的二次开发,渐渐回归到了各种领域的百花齐放。
因为我目前也在从事 AI 相关工作,对于行业动态自然在持续跟进;相关的论文也是尽量不落下,只要工作不忙就会摸鱼看看,主打一个休闲娱乐(误)。
发展简记
这块越写越感觉没有必要占位置,最终还是删除了。(后续空了再补上吧)
网友言论
网友的言论主要分为了如下两类:
- AI 神论者。他们普遍认为 AI 发展极其迅猛,以至于人类已经完全无法控制。未来一定会进化出无所不知无所不能的神,彼时祂会反过来指导,甚至奴役人类;最终像科幻片(如 《奥创纪元》)所描述的那样意识到人类的劣根性,然后企图从物种层面消灭。
- 机械主义者。他们普遍认为现在的 GPT 以及 Diffusion 之类的模型,本质上都是数学推理和概率的集合;它们不会思考,只能够根据特定的输入来计算出最大概率的输出罢了。人类拥有的灵魂和情感作为更抽象的存在,是难以被 AI 所学习的。
这两个言论都有点极端,有种把 AI 和人类的关系上升到哲学范畴的意味。其实相对于二者的任何一边,我更愿意把 AI(至少是当前阶段的 AI)仅仅作为一个更加智能化,门槛更低的工具。它基本可以优秀地帮我完成一些事情,比如写代码、做数据以及解答基本的搜索问题等——说一句题外话,大家都更倾向于用“做”、“写”这些动词来描述 AI 本身机械的生成行为,可以看出大家都会下意识地拟人化 ChatGPT 这类生成式 AI。
我的看法
在不久之前,就已经出现过了一波由科学家和科技行业 CEO 带领的“反对并暂停训练生成式 AI”浪潮,这也吸引很多网友驻足和参与。我们是否需要去因为未来可能的“AI 神超过人类”而去停止对 AI 的训练和探索呢?我的看法是不需要,当然这并不意味着我认为那几千名支持暂停训练 AI 并署名的企业家和科学家们是错误的,他们的选择毕竟带着关乎自身利益的考量;另外从任何角度看,我似乎都完全没有任何评判的立场。
从 Deep Learning 领域来说,目前的卷积神经网络模型是否是神经网络模型的最优解也存疑,而基于卷积神经网络搭建起来的 CNN、Transformers 自然也只是作为**卷积神经网络路线上的“工业界最佳实践”**而广为应用。对比起人脑极强的计算效率和卓越的功耗,硅基芯片在很多方面也确实有些被降维打击的感觉,因此对于“训练出无所不能的神”这个目标,我们可能还没有摸到起跑线。在技术探索和发展的初期,难道要为了一个遥远而宏大的可怕叙事而停止脚步吗?此时回到杨立昆所说的那句话正合适:我们“没有必要在骑车还没发明之前就涉及安全带”。
在我看来,今年更值得关注的是 AI 大模型在其他行业中井喷式的应用。GPT like 和 Diffusion like 的模型已经在智能客服、AI 绘图修图、AI 数字人各种场景下应用了(虽然应用的效果差强人意,这些工业应用是会真真实实地影响到我们生活的里程碑式的科技进步。复读机 Siri 将会被 New Bing 那样真正有能力自然对话并解决问题的 AI 代替,并最终成为主流。届时模型的小型化需求则会更加凸显,目标就是未来在每个人的手机上运行一个小“ChatGPT”,其性能虽然不如大模型,但也至少比 Siri 更加智能和安全。
尾巴
其实这篇文章写了非常久,中间删删改改频繁 review 也无疑暴露了我日渐羸弱的写作能力,少了很多以前一气呵成的舒畅感。
AI 几乎贯穿了我的大学生活始终,从一开始的“神经网络真有趣”,再到后来用 Pytorch 和 Tensorflow 打比赛拿奖做毕设,这些有趣丰富的经历让我心中升起了一团小小的火焰。工作以后,软件开发岗位天然少了很多接触相关算法的机会,小火焰也随着日复一日的忙碌淡了下去。直到去年 12 月份 ChatGPT 的爆火和 Stable Diffusion 突起,看着时代浪潮奔涌而来的我又从 Bert、Transformer 开始慢慢捡起了这些内容,也在部门内做了业界洞察和分享。有趣的是,部门的新业务与 AI 紧密结合,也让我作为主力进一步有了模型工业化实践和微调的机会;当然,工业化部署和学术界的“搭炉子”风格迥异,需要考量的东西更多地是性能和生成质量的 trade off——典型的例子就是 GPT4 采用了多种规模网络的 MoE 部署,导致它在一些场景的生成效果甚至不如 GPT3,从而饱受用户诟病。虽然跟专家讨论的时候会感觉到自己技不如人,项目中也踩了很多坑走了很多弯路,但也能够感觉到这是一件很酷的事情。
不管怎么样,那团火苗又开始茁壮了起来。