首页
关于我们
联系我们
产品
新闻
栏目分类

新闻

你的位置:贵州霖恩闻百货网 > 新闻 > 猛攻大模子!字节高出AI软硬件生态正在酿成

猛攻大模子!字节高出AI软硬件生态正在酿成

发布日期:2025-02-16 13:06    点击次数:221

猛攻大模子!字节高出AI软硬件生态正在酿成

K图 BK0923_0

  在火山引擎Force大会上,火山引擎总裁谭待晓谕,结尾12月中旬,豆包通用模子的日均tokens使用量已高出4万亿,较七个月前初度发布时增长了33倍。

  此前的宇宙月活跃用户名次榜袒露,豆包App的MAU已接近6000万,仅次于OpenAI的ChatGPT,位列宇宙第二。

  会上,字节高出负责发布了豆包视觉搭伙模子、豆包3D生成模子,以及全面升级的豆包通用模子pro、音乐模子和文生图模子等。其中,豆包视觉搭伙模子千tokens输入价钱仅为3厘,一元钱就可处理284张720P的图片。大会还晓谕,字节高出将在2025年春季推出具备更长视频生成智商的豆包视频生成模子1.5版,豆包端到端及时语音模子也将很快上线。

  《科创板日报》记者独家了解到,火山引擎边际云联结润欣科技打造AI语音玩物,其Wi-Fi模组吸收恒玄科技,涂鸦智能也有参与提供干系模组和对接平台。

image

  从现场体验来看,耗尽者不错与AI玩物“小狗”进行的语音互动换取,让其回复问题、提供伴随等。

  有产业链东说念主士关于AI语音玩物的后续销量默示了看好。他告诉《科创板日报》记者,预测本年年底来岁岁首就将有第一批的AI玩物上市,预测来岁上半年行业会有多量玩家加入竞争。但AI玩物的落地也存在一定的挑战。“最初AI玩物需要基于不同庚纪段的优质常识库,才气杀青更好地进行东说念主机互动。此外,AI玩物的日常互动频率较高,关于用户来说,云霄推理用度会是较大的支拨,亦然影响其落地的难点。”

  在会上,火山引擎视频云与乐鑫科技、ToyCity搭伙髻起AI+硬件智跃贪图,结合豆包大模子,火山引擎的拟东说念主语音对话时代、ToyCity潮玩想象,以及乐鑫科技的AI芯片等居品力上风,激动AI潮玩的普及化。据悉,乐鑫科技将为AI潮玩提供一站式硬件束缚有想象,包括端侧音视频处理等。

  在机器东说念主方面,地平线旗下地瓜机器东说念主与火山引擎边际云正在基于大模子网关进行智能机器东说念主的开发,打造了基于边际大模子网关的机器东说念主智能感知与轨则系统有想象。

image

  面向机器东说念主调用场景,大模子网关能够诈骗边际的上风,基于端侧肯求发起位置就近调用大模子干事,并通过边际大模子网关的居品智商提高反应速率,保险调用壮健性,从而为机器东说念主开导杀青大模子的就近接入与查询加快,以更廉价钱、更快速率按需调用。

  此外,乐聚机器东说念主也与豆包大模子开展结合。目下乐聚机器东说念主主要应用于科研、展厅导览等,也在探索工业范围的应用。

image

  在端侧AI方面,豆包大模子照旧接入到多家手机、PC等智能末端,掩盖末端开导约3亿台,来自智能末端的豆包大模子调用量在半年时辰内增长100倍。

image

  火山引擎与英特尔结合探索PC端大模子应用

  据悉,荣耀手机的魔法修图、AI选录功能由豆包大模子提供干事,vivo手机吸收了豆包音乐模子,为相册用户的一键成片提供了音乐创作智商。豆包音乐模子会凭据用户提供的素材进行AI词曲的创作,为用户生成个性化影片。

  谭待向《科创板日报》先容,国内安卓手机大部分王人在和豆包结合。“敌手机厂商来说,会在某些场景用豆包,某些场景用其他的大模子,或者某一个场景搀杂使用。对企业用户来说,细则也需要一个多云或者多模子的政策,这个我认为很平常。最终如故智商更好、资本更低,就会用谁,这笔账就很好算。”

  《科创板日报》记者在现场发现,基于字节高出的AI智能体开发平台扣子,已有多量应用场景正在探索。

  比如,与苏泊尔结合探索AI个性化食谱生成,提高炒菜机的干事水平。

image

  与机智云结合的AI养鱼,由智能体凭据鱼缸开导的及时数据,自动为用户提供优化有想象。举例,在水质不达标时,智能体不错自动调度水泵的开动形式,以改善鱼类或植物的孕育环境。

imageimage

  与猫王音响结合的AI智能音响

image

  AI智能体笔筒

  据悉,扣子的智能体开发社区里,已有高出100万的活跃的开发者,创造出了高出200万多个智能体应用。

  在车企方面,东风汽车、智己汽车、飞驰旗下SMART汽车等与豆包大模子开展智能座舱等方面的结合。谭待默示,国内能够以上的主流汽车品牌王人在与豆包大模子结合。

imageimage

  字节高出预测在2025年春季推出具备更长视频生成智商的豆包视频生成模子1.5版,谈及可能存在的算力方面的挑战,谭待默示,“火山方舟提供豆包大模子的MaaS推理干事,从咱们我方的储备上我认为如故很饱胀的。恰是因为这个原因,咱们目下不错提供业界最大的TPM和RPM。当用户出现了卡顿或者梗阻,这个不一定是算力不够的原因。毕竟你用的是一个应用,是一套系统,前端、接入端,哪怕用户考证出了问题,也会影响到统共系统的通顺性,包括有莫得工程化的优化。这其实不仅仅简便的算力问题。”

  关于未来大模子范围的市集竞争,谭待默示,目下还处于市集早期。“说真话从我的角度目下不太选藏竞争,因为这个市集还在很早期,可能这个市集千分之一刚刚开发出来。这个时候其实无谓选藏竞争的问题,选藏的是到底用户的需求有哪些莫得被知足。”