纪弘从最开始的时候就知道,现有的硬件架构利用模拟手段进行【关键位决策】能力的支持,是有非常大的性能损失的。
但,企业初创,资金缺乏,不得已才采取的这样的方式,饶是如此,对付现在的这些大模型,类思维也已经占尽优势了。
那个时候,启动新型芯片研发的时机并不成熟,也没有必要。
但是现在,纽约大学(NYU)发现的这种基于【元学习】的MLC训练法,成功的训练出了具有【类人泛化能力】的人工智能模型。
而微软更是瞄准了这个时机,一举拿下了纽约大学的这个团队。
国外的企业,确切的说是微软这个敌人,它在进步——即便这依然还是算力堆积的手段,但算力堆积的效率却提高了不少倍。
“敌人在进步啊!”纪弘查阅了无数的公开技术资料以及阿美瑞肯关于【类人泛化能力】的相关报道。
他是试图摸清敌人现在究竟追到了什么程度,仅仅只看他们发的新闻的话,这个进步还是不小的。
以MLC方法训练出的模型,消耗相当于GPT4.0版本60%的算力,在“联想”、“举一反三”、“语言理解”等对比测试中甚至字节超过了GPT4.5的版本。
“这进步还真不小!”纪弘一边赞叹一边做着计划:“看来我这边也要抓紧!”
于是,他迅速的把自己今天得到的思路和方法汇总,并跟公开报道的微软现在的水平做了对比,思考了一番,画了一条横线。
“微软这样的能力已经出现了,”纪弘琢磨着:“是不是可以考虑把同等水平的AI能力,以公众平台API服务的形式提供给国内其他企业?”
一枝独秀不是春,前两天,陈继业说岩浆引擎总经理李栋有意加入卷耳智能科技的时候,纪弘就在考虑是否也做一个类似的公众平台以API的形式对外提供。
今天看到微软的这个水平,他的这个心思就更加的强烈了。
耳语与Windows的竞争尚处在蓄力的阶段,软件的开发和生态的建设也非常重要。
代码AI可以减少软件开发商的开发成本,但光开发不行,软件的智慧能力也要同步跟上,否则操作系统与软件之间就会有操作上的严重割裂感,影响用户体验。
“做!”纪弘思考了一番,还在刚才画的那条线的基础上,上浮20%又画了一条。
他是这么(本章未完,请翻页)
记住手机版网址:m.bqgw123.com