NEOHOPE大模型发展趋势预测2601

NEOHOPE大模型发展趋势预测2601
1、基础模型比赛已结束,能胜出的就头部这几家,开源模型市场更大
2、架构严谨,会导致基础模型价格进一步降低,其他模型厂商向杀入战局越来越难
3、大模型向垂直领域迁移动作明显:大厂商开始大力推进垂直领域模型
4、各垂直领域头部企业会握紧数据,加大开源大模型的开发应用,各大应用会进一步融入AI能力
5、端云模型应用场景进一步增多,小模型会更加被重视
6、头部大模型应用,逐步进入收费时代,可以盈利逐步成为各大模型团队KPI
7、大模型相关应用进一步爆发,在短视频、非现实文学创作等方面,大模型会进一步发力

一线厂商【主观】:
1、国外闭源:ChatGPT、Claude、Gemini
2、国外开源:Mistral
3、国内闭源:豆包、通义千问商业版、质谱清言商业版、月之暗面
4、国内开源:通义千问、DeepSeek、质谱清言

大模型时代学习方法小结

最近和几个朋友聊天的时候,大家稍微总结了一下大模型时代要如何快速学习,汇总了几个典型的方式:

方法1:在你有一定了解的领域,把AI当做有无限耐心的老师,无限提问法
1、当你想深入了解一个事情的时候,可以用清晰的命令描述好自己的问题,去多个AI同时发送该问题。
2、对每个AI反馈的内容进行初筛,最终保留2~3个候选AI
3、用靠谱的那个AI,去进一步咨询自己想理解的问题
4、不断的拓展问题的广度和深度,在这个过程中,最好记录一个思维导图,对于想进一步理解的点,做好标记
5、用适合自己的学习方式,把这些知识点逐一搞清楚
6、当AI不断说车轱辘话的时候,先更换说书,后尝试备选AI
7、一个不理解、但很重要的知识点,多发给几个AI,让他们交叉验证
8、请AI把整个过程的资料,梳理为笔记或思维导图
其实大家可以看到,知识面比较广的、求知欲强的、能提出好问题的、有一定较真精神的人,在AI时代会有更多的优势

方法2、在你很不了解的领域,把AI当做向导
1、当你想了解一个陌生事情的时候,可以要求AI先对该领域知识做一个思维导图的摘要,去多个AI同时发送该问题
2、对每个AI反馈的内容进行初筛,最终保留2~3个候选AI,此时你对这个领域有了初步的理解
3、对你感兴趣的要点,要求AI对思维导图进行扩展,并多举示例
4、对其中某个细节问题,不清楚的,调整到“方法1”
5、关键点要做好交叉验证
6、请AI把整个过程的资料,梳理为笔记或思维导图
其实大家可以看到,在AI的加持下,很多技术的专业护城河,已经消失了。在一个行业不够纵深的人,会变得难以生存。以后,行业新人很可能会变得更难找好的工作,因为门槛没了,谁都能做。

方法3、一个任务多用几个AI,让他们相互印证补充
先把一个问题描述清楚,约定好输出格式和输出要求,同时发给A、B、C、D四个模型。
先判断哪个模型输出效果最好,比如模型A。
将其他模型B、C、D的输出,给到模型A,要求进行检查及补充。
然后要A,进行检查补充。
然后把A最后的信息,给到第二好的B,再进行检查及补充。
一般来说,此时输出质量就很高了,如果不行就再来一轮。

方法4、日常工作生活中,把AI当做助理或外脑
相信这方面大家都会有很多尝试,从写总结报告到完成PPT,从画Excel表格到写简单代码,从P图到做视频。
在大模型当前技术水平下,大家记住一点就行:AI方便时用AI,人方便时用人,效能优先,不要纠结。

方法5、读代码时,让AI补充注释,然后对重点代码进行详细解释
相信不少同学都在用AI写代码。
但用AI去读代码也是很爽的,包括平时很少用的语言,也是很容易读懂,推荐大家试试。

划重点:快速调整自己,适配AI时代
在AI时代,几乎每个人都要抛弃过去思考、学习和工作的习惯,需要重新训练自己的思维方式,重新调整学习和工作的方法。
只有快速适应这个时代,才能快速越过“AI斩杀线”,去碾压别人,而不是被别人碾压。

目前能看到的趋势有:
1、有业务经验、能驾驭好AI工具的人,最受欢迎
2、没业务经验、能驾驭好AI工具的人,次之
3、有业务经验、不能驾驭好AI工具的人,受到冲击最大
4、没业务有经验、不能驾驭好AI工具的人,在部分行业很难生存
5、有想法、能驾驭好AI工具的人,会爆发
6、没想法的人,会吃亏

大模型幻觉自动识别

关于大模型自动化幻觉识别的一些思考:
1、要求大模型输出参考文献、文献引用及数据更新时间
2、通过搜索引擎、RAG等工具,确认文献可信度
3、通过搜索引擎、RAG等工具,获取有没有最新的信息
4、对于风险高的情形,对比其他大模型结果(感觉成本好高)
5、通过小模型,判定置信度

NEOHOPE大模型发展趋势预测2409

NEOHOPE大模型发展趋势预测2409
1、虽然ChatGPT-4o 和 OpenAI o1都有亮眼表现,但OpenAI仍未能突破瓶颈,GPT5发布遥遥无期
2、小模型化、移动化趋势越来越明显
3、多个领域模型能力组合,将逐步成为趋势
4、国内大模型厂商频频降价,将开始新一轮的清洗,部分厂商将陆续出局
5、开源大模型将会逐步侵占闭源模型市场
6、领域模型采用开源大模型将成为主流
7、逻辑推理能力有大幅加强,效率有待提升
8、美国对外大模型技术封锁会更加严格

一线厂商【主观】:
1、国外闭源:Claude、ChatGPT、Gemini
2、国外开源:Llama3、Mistral
3、国内闭源:月之暗面Kimi、质谱清言ChatGLM、秘塔搜索
4、国内开源:阿里通义千问

AI编程的现状

1,当前AI可大幅提升代码片段效率
当前的AI辅助工具,在通用代码片段上的效率,已经高过大多数程序员了。
比如让AI去写一个通用算法片段,其速度甚至质量可以吊打多数的程序员。
虽然很多通用代码片段都有现成的库可以参考,甚至可以直接调用,但自动输出一个良好的demo也能节约大量的搜索排错的时间,大幅提升开发效率。

2,当前AI可大幅提升学习速度
在进入一个新的技术领域时,AI可大幅降低程序员的学习成本。
一个AI生成的demo,稍微调整一下就能运行了。
所以有种可能,就是程序员会更加的全栈化。

3,当前AI有待进步
但如果是一个复杂的需求,尤其是需求需要建立在对一个项目前期需求理解之上时,现在的AI还是不够强大。
也就是有些人说的,AI很傻。

而且当前的软件项目结构,更适合人,而不是AI。
更小的代码片段,更小的项目拆分,对当前水平的AI会更友好。但对人来说并不一定。

4,近期AI会让编程技能更加工具化
比如一个做统计分析的人,用R或Python做统计,学习成本会下降一个数量级。
熟练的用函数,很难成为核心优势。

5,AI的进一步发展,会促使开发人员分级
善用工具的,会越来越强大
反之,会被迫与“被AI武装的外行人”竞争的囧境

6,AI的进一步发展,会让懂业务的人更强大
开发人员必须向上游靠拢,更深入的理解业务,才能有更好的发展。
纯拼技能熟练的时代,可能要结束了。

大模型时代需要强大的信息护盾

无论你周围的人,是否关注大模型,23年的ChatGPT的宫斗剧相信他应该还有些印象,毕竟都已经破圈了。

这件事情的起因,说白了就是“超级对齐派” 和 “激进派”之争。
“超级对齐派”希望,可以对预训练模型进行调整,让其符合人类的道德标准,但要付出更多的成本和时间,收获效果更差的模型。
“激进派”认为,这样很难满足投资人和用户的期望,公司根本无法生存。

“激进派”则希望,先满足大模型的商业价值,获取更多的投资和收入,然后再考虑“超级对齐”的事情。
“超级对齐派”认为,这样就相当于放出了洪水猛兽,会威胁到人类生存。

宫斗最终以“激进派”暂时获胜,“超级对齐派”基本离开OpenAI为结局。

当然,无论是业界大佬,还是各国政府,也都在积极呼吁,要对大模型进行立法管控,限制算力,防止“对人类造成不可挽回的影响”。

但立足于当前来看,以现在的AI能力来说,人为利用大模型创造虚假信息对社会造成负面影响,比“超级对齐派”的洪水猛兽恐怕来的更快。
而且更悲观的是,不管是否做了对齐,其实都可以通过调整,把预训练模型已经完成的对齐,重新解放,把猛兽再放出来。
毕竟,我们现在很难像科幻小说中,把“机器人三大定律”写入到机器人的固件中,并设置永不可更改。

如果没有强大的信息护盾,生成式AI很容易达成这些目的:
一、通过生成虚假信息(文字、图片、音频、视频),并可以达到以假乱真的效果,达到犯罪的目的
比如:通过视频通话,达到诈骗的目的

二、通过生成海量虚假信息,控制舆论
比如:通过伪造新闻,伪造评论,达到政治或军事目的

三、不断生成海量虚假信息,覆盖真实信息,改写历史
比如:将“窗前明月光”,在全网改为“窗前白月光”,经过几代人的不断灌输,慢慢就可以达到目的

这样的例子,我们可以举出很多。

是不是细思极恐。
聪明的你,有没有想到区块链的工作量证明:全人类在诗词上的纠正能力,也搞不过机器不是么。
当虚假信息达到99%的时候,
一个新诞生的人,会相信哪个信息呢?

人类从来无法从历史中学到教训。
只要有足够利益,就一定有人,用不正当的方法,利用新技术。
所以说,我们虽然还没到必须“超级对齐”的时代。但当前的AI技术,如果不尽快去管控使用方式,势必会给未来的我们,会造成巨大的损失。
我们需要强大的信息护盾!
亟需!

退一万步说,就算是不这样被大规模利用。
我们上一代人、我们这代人、我们下一代人,也要学会“区分是否为AI”的技巧。
但随着AI技术进步,这个技巧的习得,将越来越难。

小模型时代到来

最近有一个很有意思的现象,就是各大厂商的大模型,参数级别“越来越小”。
今年上半年个厂商在不断的增加模型参数量,动辄千万参数。
下半年各厂商发布模型时,却都会不约而同的带上了性能不错的“小模型”,无论是ChatGPT、Llamma、Mistral、通义千问、谷歌、微软还是苹果,都是如此。

出现这种现象的原因有:

1、投资方需要看到盈利的趋势,需要降低成本
各大模型厂商,前期纯烧钱阶段已高于段落,需要考虑逐步盈利,一方面要加大收入来源,一方面要降低推理成本
降低模型规模,进行模型量化,是最直接的降低成本的方法

2、“小模型”效果大幅提升,比大模型差不太多
这种提升主要来自于两方面,一方面“小模型”调优技术越发成熟,另一方面数据集越来越准确
最终使得“小模型”参数规模下降了一两个数量级后,仍可达到大模型70%~80%的水平

3、从通用化需求,转为专业化需求
之前大模型追求的是通用,也就是拥有几乎各行各业的专业知识
现在的“小模型”,不需要去吟诗作赋,只需要掌握某个领域的特定专业知识就好,但准确性要更高,对数据和调优要求就更高

4、单卡推理,进一步降低成本
仔细研究“小模型”后,会发现部分模型恰好可以在主流单GPU上运行
这样会避免在多显卡之间通讯或传递数据,推理性能会进一步提升
同样的,部署和调度的难度会大幅下降,稳定性会进一步提升

5、移动需求
无论是微软还是苹果,都在积极探索,让“小模型”可以在移动设备上顺畅运行
一方面可以利用终端算力,提升响应效率,降低服务端推理成本
另一方面可以规避或降低数据隐私的风险,会得到大企业的欢迎

现在模型已经进入下半场,通用模型的竞争格局已比较明显,不会再是大家角逐的重点
各类垂直行业的“小模型”,开始入场厮杀
这个过程中,会诞生一些2C的“小模型”,但更多的商机在各大公司的行业垂直模型,开始卷起来