NEOHOPE大模型发展趋势预测2409

NEOHOPE大模型发展趋势预测2409
1、虽然ChatGPT-4o 和 OpenAI o1都有亮眼表现,但OpenAI仍未能突破瓶颈,GPT5发布遥遥无期
2、小模型化、移动化趋势越来越明显
3、多个领域模型能力组合,将逐步成为趋势
4、国内大模型厂商频频降价,将开始新一轮的清洗,部分厂商将陆续出局
5、开源大模型将会逐步侵占闭源模型市场
6、领域模型采用开源大模型将成为主流
7、逻辑推理能力有大幅加强,效率有待提升
8、美国对外大模型技术封锁会更加严格

一线厂商【主观】:
1、国外闭源:Claude、ChatGPT、Mistral、Gemini
2、国外开源:Llama3
3、国内闭源:月之暗面Kimi、质谱清言ChatGLM、秘塔搜索
4、国内开源:阿里通义千问

AI编程的现状

1,当前AI可大幅提升代码片段效率
当前的AI辅助工具,在通用代码片段上的效率,已经高过大多数程序员了。
比如让AI去写一个通用算法片段,其速度甚至质量可以吊打多数的程序员。
虽然很多通用代码片段都有现成的库可以参考,甚至可以直接调用,但自动输出一个良好的demo也能节约大量的搜索排错的时间,大幅提升开发效率。

2,当前AI可大幅提升学习速度
在进入一个新的技术领域时,AI可大幅降低程序员的学习成本。
一个AI生成的demo,稍微调整一下就能运行了。
所以有种可能,就是程序员会更加的全栈化。

3,当前AI有待进步
但如果是一个复杂的需求,尤其是需求需要建立在对一个项目前期需求理解之上时,现在的AI还是不够强大。
也就是有些人说的,AI很傻。

而且当前的软件项目结构,更适合人,而不是AI。
更小的代码片段,更小的项目拆分,对当前水平的AI会更友好。但对人来说并不一定。

4,近期AI会让编程技能更加工具化
比如一个做统计分析的人,用R或Python做统计,学习成本会下降一个数量级。
熟练的用函数,很难成为核心优势。

5,AI的进一步发展,会促使开发人员分级
善用工具的,会越来越强大
反之,会被迫与“被AI武装的外行人”竞争的囧境

6,AI的进一步发展,会让懂业务的人更强大
开发人员必须向上游靠拢,更深入的理解业务,才能有更好的发展。
纯拼技能熟练的时代,可能要结束了。

大模型时代需要强大的信息护盾

无论你周围的人,是否关注大模型,23年的ChatGPT的宫斗剧相信他应该还有些印象,毕竟都已经破圈了。

这件事情的起因,说白了就是“超级对齐派” 和 “激进派”之争。
“超级对齐派”希望,可以对预训练模型进行调整,让其符合人类的道德标准,但要付出更多的成本和时间,收获效果更差的模型。
“激进派”认为,这样很难满足投资人和用户的期望,公司根本无法生存。

“激进派”则希望,先满足大模型的商业价值,获取更多的投资和收入,然后再考虑“超级对齐”的事情。
“超级对齐派”认为,这样就相当于放出了洪水猛兽,会威胁到人类生存。

宫斗最终以“激进派”暂时获胜,“超级对齐派”基本离开OpenAI为结局。

当然,无论是业界大佬,还是各国政府,也都在积极呼吁,要对大模型进行立法管控,限制算力,防止“对人类造成不可挽回的影响”。

但立足于当前来看,以现在的AI能力来说,人为利用大模型创造虚假信息对社会造成负面影响,比“超级对齐派”的洪水猛兽恐怕来的更快。
而且更悲观的是,不管是否做了对齐,其实都可以通过调整,把预训练模型已经完成的对齐,重新解放,把猛兽再放出来。
毕竟,我们现在很难像科幻小说中,把“机器人三大定律”写入到机器人的固件中,并设置永不可更改。

如果没有强大的信息护盾,生成式AI很容易达成这些目的:
一、通过生成虚假信息(文字、图片、音频、视频),并可以达到以假乱真的效果,达到犯罪的目的
比如:通过视频通话,达到诈骗的目的

二、通过生成海量虚假信息,控制舆论
比如:通过伪造新闻,伪造评论,达到政治或军事目的

三、不断生成海量虚假信息,覆盖真实信息,改写历史
比如:将“窗前明月光”,在全网改为“窗前白月光”,经过几代人的不断灌输,慢慢就可以达到目的

这样的例子,我们可以举出很多。

是不是细思极恐。
聪明的你,有没有想到区块链的工作量证明:全人类在诗词上的纠正能力,也搞不过机器不是么。
当虚假信息达到99%的时候,
一个新诞生的人,会相信哪个信息呢?

人类从来无法从历史中学到教训。
只要有足够利益,就一定有人,用不正当的方法,利用新技术。
所以说,我们虽然还没到必须“超级对齐”的时代。但当前的AI技术,如果不尽快去管控使用方式,势必会给未来的我们,会造成巨大的损失。
我们需要强大的信息护盾!
亟需!

退一万步说,就算是不这样被大规模利用。
我们上一代人、我们这代人、我们下一代人,也要学会“区分是否为AI”的技巧。
但随着AI技术进步,这个技巧的习得,将越来越难。

小模型时代到来

最近有一个很有意思的现象,就是各大厂商的大模型,参数级别“越来越小”。
今年上半年个厂商在不断的增加模型参数量,动辄千万参数。
下半年各厂商发布模型时,却都会不约而同的带上了性能不错的“小模型”,无论是ChatGPT、Llamma、Mistral、通义千问、谷歌、微软还是苹果,都是如此。

出现这种现象的原因有:

1、投资方需要看到盈利的趋势,需要降低成本
各大模型厂商,前期纯烧钱阶段已高于段落,需要考虑逐步盈利,一方面要加大收入来源,一方面要降低推理成本
降低模型规模,进行模型量化,是最直接的降低成本的方法

2、“小模型”效果大幅提升,比大模型差不太多
这种提升主要来自于两方面,一方面“小模型”调优技术越发成熟,另一方面数据集越来越准确
最终使得“小模型”参数规模下降了一两个数量级后,仍可达到大模型70%~80%的水平

3、从通用化需求,转为专业化需求
之前大模型追求的是通用,也就是拥有几乎各行各业的专业知识
现在的“小模型”,不需要去吟诗作赋,只需要掌握某个领域的特定专业知识就好,但准确性要更高,对数据和调优要求就更高

4、单卡推理,进一步降低成本
仔细研究“小模型”后,会发现部分模型恰好可以在主流单GPU上运行
这样会避免在多显卡之间通讯或传递数据,推理性能会进一步提升
同样的,部署和调度的难度会大幅下降,稳定性会进一步提升

5、移动需求
无论是微软还是苹果,都在积极探索,让“小模型”可以在移动设备上顺畅运行
一方面可以利用终端算力,提升响应效率,降低服务端推理成本
另一方面可以规避或降低数据隐私的风险,会得到大企业的欢迎

现在模型已经进入下半场,通用模型的竞争格局已比较明显,不会再是大家角逐的重点
各类垂直行业的“小模型”,开始入场厮杀
这个过程中,会诞生一些2C的“小模型”,但更多的商机在各大公司的行业垂直模型,开始卷起来

大模型公司的技术能力分级

1、研发大模型算法,要有强大的科研团队
比如Transformer、StableDiffusion

2、在上述理论上,改进并模型结构,并提供预训练模型,要有海量算力和海量优质数据
比如ChatGPT、Llamma、千问、Kimi,也包括一些采用“知识蒸馏”技术的公司

3、自有大模型,简单问题自有模型解决,复杂问题集成外部模型功能
比如苹果

4、在预训练大模型上进行调优,并辅助RAG技术,要有算力和大量行业优质数据
比如保险行业大模型、健康行业大模型,华为盘古大模型做的就是这个生意

5、直接使用多个外部大模型,进行能力整合
比如Perplexity

6、直接使用预训练大模型,并进行RAG调优,需要有行业数据积累
各类行业垂直“大模型”

7、直接使用外部大模型,优化提示词,声称自己有大模型能力
比如各类套壳公司

8、直接使用国外大模型,进行转发
比如各类转发网站

9、根本没用大模型技术,直接包装原有功能,四处忽悠
比如各类噱头公司

PS:
其实还有几类公司,类似于美国淘金时代,卖铲子、卖水、卖牛仔裤的公司:
1、提供硬件的公司,尤其是GPU制造厂商
2、提供GPU算力的公司
3、主要从事大模型培训,不管上面几类公司是否赚钱了,这些培训公司可真赚钱了

Apple Intelligence三层模型结构

苹果在AI上很久没有实质性进展了:
Siri多年没有进步,停止了造车项目,解散了部分AI团队。
虽然陆续低调的进行了一些AI公司收购,但没有什么可称道的成果,实在算不上有什么进展。

今年WWDC上,终于发布了AI相关的内容,一如既往的“重新定义”了AI的概念:发明了一个新词Apple Intelligence,缩写还是AI。

咱们仔细看一下这个Apple Intelligence,还是动了一些脑筋的,整体架构分了三层:
1、首先是在移动设备端,运行了一个30亿参数的小模型,处理一些简单的任务(苹果自研芯片,让小模型可以在功耗可控的情况下,及时响应这些请求)
2、如果本地模型无法处理,就将请求发送到是云端,通过苹果自己的大模型,响应用户请求
3、如果任务太复杂,苹果自家模型处理不好,则将请求发送到合作伙伴提供的大模型,比如GPT-4o等,合作伙伴会不断增加
当然,对于用户的授权,和数据隐私保护,还是做了不少工作的

这样乍一看,好像没有什么吗,就是集成了多个模型。但咱们加上一个事实后,这个事情就不这么简单了:
苹果对自己的操作系统完全可控,就让本地模型可以获取比竞争对手高的多的权限。
苹果自家模型,可以读邮件、可以看日程、可以访问通讯记录、可以查看网页浏览记录,可以搜集全部图像。。。
也就是说,苹果的自家模型,可以高效收集客户设备上所有信息。
同样的,苹果自家模型,可以调用用户设备全部的功能,包括第三方APP的功能。
通过整合这些信息,就可以让苹果自家模型,吊打全部竞争对手。

细思极恐,在移动小模型上,在IOS设备上,几乎已经没有了任何生存空间。
如果Google也在安卓上,部署自己的小模型,那安卓设备上的机会,也就不存在了。
无论Google如何选择,国内厂商必然快速跟进,那手机小模型这个赛道很快就不存在了。
而第三方的移动小模型和应用,无论如何努力,由于无法控制操作系统底层,几乎不可能形成任何竞争优势,几乎必然出局。

可以看下,现在国内大模型赛道整体太卷了,小厂商几乎没有机会:
1、大模型的研发、训练,需要大量的资金、人员、算力、数据的投入,小厂玩不起,大厂不赚钱
2、开源大模型的性能,比闭源大模型并不差太多,而且也在疯狂迭代,没有商业模式,更没有资本愿意长期投入,小厂更玩不起
3、小厂在垂直赛道可能会有些机会,但如果市场足够大,被大厂嗅到,没有赚钱途径的大厂一定会下场卷死你
4、移动端小模型,上面也说了,没有操作系统权限,小厂几乎没有机会了
5、在APP创新上,国内互联网流量过于集中,应用开发出来只能依附于几个大流量平台。这些平台不会允许某几个应用过热,而且在有了热度后,大厂还会无良的抄小厂的作业,让某类APP瞬间消失

所以很可惜,虽然大家都知道大模型是个好东西。但国内环境太卷了:
没有给小厂的生态位,没有好的生态
就不会有大量的创新,后面难以出现百花齐放的场景
到头来,还是要等别人创新后,大厂去抄?
大家都懂,但停不下来。
卷来卷去,难有赢家。

好像扯远了。。。
其实,对于苹果,其实还有两个事情做的挺到位的
1、将prompt屏蔽了,让普通人可以更便捷的使用AI
2、再次发挥,强大的整合能力,提前抢占了移动AI的入口

当然,对于个人来说,用好大模型,提高自己获取知识的速度,提升自己的认知圈,扩展自己的能力边界,还是很重要的。

将被大模型+机器人严重冲击的行业

这里说的冲击严重,指的是可能导致从业人员大规模失业,而不是单纯的提升工作效率。
现在看起来,下面的部分行业从业人员,会受到较大冲击:

文字处理
1、客服人员(聊天机器人、语音机器人)
2、翻译人员(普通文件翻译)
3、文员(部分工作机会会被替代)
4、内容审核人员
5、内容创作人员(新闻转发、内容创作)
6、部分开发人员(部分代码编写人员)
7、部分法律从业者(文档整理、案例分析、合同审查)
8、部分保险从业者(部分业务员、部分核保任务)
9、部分财务人员(部分财务审计任务)

自动驾驶
1、网约车驾驶员
2、长途运输司机
3、物流人员(自动配送)

产业自动化
1、流水线工人(机器人)
2、仓库管理(无人仓储)
3、养殖人员
4、农业人员

NEOHOPE大模型发展趋势预测2405

NEOHOPE大模型发展趋势预测2405
1、规模化遇到瓶颈,资源陷阱效应愈发明显,GPT5未能按时发布,估计遇到不小的技术问题
2、垂直化趋势明显,完全通用的大模型投产比不高,而垂直化的大模型可以在一定领域内保障效果的情况下,有效降低模型训练及推理成本,
3、移动化趋势明显,以苹果为首的各厂商在努力缩减模型规模,努力提升设备推理性能,通过大模型赋能移动终端
4、具身化初现效果,无论是人形机器人,还是机器人训练,效果显著
5、多模态大模型投产低,远不如多个模态的模型整合
6、部分整合类应用已经可以赚钱,比如Perplexity等
7、下半年没有盈利能力的大模型厂商财务压力会很大
8、美国对外大模型技术封锁会更加严格

一线厂商【主观】:
1、国外闭源:ChatGPT、Gemini、Claude、Mistral
2、国外开源:Llama3
3、国内闭源:月之暗面Kimi、质谱清言ChatGLM
4、国内开源:阿里通义千问

PS:
补充其他几个不错的模型
1、绘画方向,Midjourney,SD
2、视频生成,Sora
3、文字转音频,ChatTTS

英伟达也有几个不错的模型平台
1、药物研发,BioNeMo
2、基因分析,Parabricks
3、医学影像,MONAI

qwen.cpp简明教程

1、下载并编译qwen.cpp

git clone --recursive https://github.com/QwenLM/qwen.cpp
cd qwen.cpp
cmake -B build
cmake -B build -DGGML_OPENBLAS=ON
cmake -B build -DGGML_CUBLAS=ON
cmake --build build -j --config Release

2、下载模型,转化为ggml格式

#从hf下载模型,下载完成后,本地地址为 ~/.cache/huggingface/hub/模型名称
#部分代码文件会有缺失,可以到hf上对比下载
from transformers import AutoModelForCausalLM
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-7B-Chat",trust_remote_code=True)
#模型转化为ggml格式
#同时进行量化,降低资源需求
python3 qwen_cpp/convert.py -i PATH_TO_MODEL -t q4_0 -o qwen7b-q40-ggml.bin

3、运行模型

./build/bin/main -m qwen7b-q40-ggml.bin --tiktoken PATH_TO_MODEL/qwen.tiktoken -i

chatglm.cpp简明教程

1、下载并编译chatglm.cpp

git clone --recursive https://github.com/li-plus/chatglm.cpp.git
cd chatglm.cpp
git submodule update --init --recursive
#cmake -B build
cmake -B build -DGGML_OPENBLAS=ON
#cmake -B build -DGGML_CUBLAS=ON
cmake --build build -j --config Release

2、下载模型,转化为ggml格式

#从hf下载模型,下载完成后,本地地址为 ~/.cache/huggingface/hub/模型名称
#部分代码文件会有缺失,可以到hf上对比下载
from transformers import AutoModel
model = AutoModel.from_pretrained("THUDM/chatglm-6b",trust_remote_code=True)
#模型转化为ggml格式
#同时进行量化,降低资源需求
pip install torch tabulate tqdm transformers accelerate sentencepiece
python3 chatglm_cpp/convert.py -i PATH_TO_MODEL -t q4_0 -o chatglm-6b-q40-ggml.bin

3、运行模型

./build/bin/main -m chatglm-6b-q40-ggml.bin -i

4、常见问题

#下面的错误,是transformers版本太高导致
AttributeError: 'ChatGLMTokenizer' object has no attribute 'sp_tokenizer'. Did you mean: '_tokenize'?
#需要降低transformers版本
pip uninstall transformers
pip install transformers==4.33.2