字节芯片团队开启规模化招聘 多款芯片已量产部署

刘峰
2026-02-15 09:15

字节芯片业务连续传来好消息。

据知情人士消息,字节跳动芯片研发团队将开始规模化招聘,具体招聘城市涵盖北京、上海、深圳等,所需职位包括芯片架构、soc设计等。

该知情人士透露,字节跳动芯片研发团队目前核心集中于芯片设计环节,围绕公司自身业务开展专用硬件定制与优化,面向云端场景研发多款采用先进半导体工艺的复杂芯片,以提升性能、降低算力成本。“目前字节芯片团队已实现多次一版成功流片,早期多个项目进入量产部署阶段,覆盖多个主流先进工艺节点,整体研发与落地节奏稳步推进。”对此,字节方面未予回复。

电商派

图源:字节跳动

近期以来,字节芯片业务逐渐浮出水面。此前有市场消息称,字节跳动正持续推进自研芯片战略,其芯片研发团队规模已悄悄扩充至千人以上,仅AI芯片方向的研发人员就超过500人,CPU团队约200人。

在算力迫切的需求下,字节对芯片的业务推动愈发重视,近期也进行了一轮团队调整。字节芯片负责人、“Data-系统”部技术总监王剑不再负责字节芯片业务。

据了解,王剑于2016年加入字节跳动,同时也是字节开源委员会的负责人之一。在字节芯片团队中,AI芯片与DPU团队的负责人是施云峰,CPU团队的负责人是余红斌。二人原先均向王剑汇报,王剑不再负责芯片业务后,施云峰、余红斌后续将直接向字节跳动公司副总裁、火山引擎业务负责人杨震原汇报。

值得一提的是,近日还有消息称,字节跳动正在开发一款人工智能推理芯片,并与三星电子就制造合作展开谈判。字节跳动据悉计划在今年内生产至少10万颗芯片,并希望逐步将产量提升至35万颗,首批样片预计在3月底前完成。对此,字节跳动发言人回应称,有关公司自研芯片项目的说法“不准确”,但未作进一步说明;三星方面则拒绝置评。

1、该内容为作者独立观点,不代表电商派观点或立场,文章为作者本人上传,版权归原作者所有,未经允许不得转载。
2、电商号平台仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。
3、如对本稿件有异议或投诉,请联系:info@dsb.cn
相关阅读
9月4日消息,有市场消息称,字节整个芯片团队权限被注销,业务从集团独立,变更至新的主体且未提供N+1的赔偿。对此,字节相关负责人回应称,该消息是谣言,字节芯片业务的主体一直没有变化,这次只是切换飞书租户,外界关于裁员、独立、变更主体等各种过度解读不实。
据了解,字节芯片团队负责人为“Data-系统”部技术总监王剑,他向杨震原汇报。王剑同时是字节今年成立的开源委员会的主要负责人之一,他于2016年加入字节跳动,主要工作经验在于网络和数据系统架构,非芯片行业出身。杨震原在上周的火山引擎大会上说,字节造芯的目的不是对外销售,而是为自身需求研发定制化芯片,以降低成本、提高性能。
本次融资资金将用于加速“聚芯微电子”各产品线的产品迭代和商业化落地,提升团队人才密度以及新产品和市场方向拓展。据了解,聚芯微电子成立于2016年,是一家拥有独立自主知识产权的创新型芯片设计公司,总部位于武汉光谷未来科技城。
9月11日消息,据报道, Sea集团旗下的电商公司Shopee将在东南亚市场推出一款短视频应用,直接对标字节跳动旗下的短视频产品TikTok。据了解,该短视频项目的优先级较高且预算充裕,且其新建团队囊括了多位前字节跳动国际化成员。就在昨日,Sea Ltd还表示,已通过股票和可转换债券融资约60亿美元,Refinitiv的数据显示,这是东南亚规模最大的融资。
近日,字节跳动应用机器学习团队开源名为veGiantModel的大模型训练框架,主要应用于自然语言处理领域的大模型训练
6月28日消息,今日,字节跳动火山翻译团队宣布推出LightSeq训练加速引擎,并向全球开发者开源。这是业界首款完整支持Transformer模型全流程加速的训练引擎,最快提速能达到3倍以上。也就是说,以前需要1个月的时间来训练一个超大模型,现在用了这个训练加速,只需要10天左右,生产效率大幅提升,而成本也节省下来。
10月19日消息,字节跳动发布关于“实习生破坏大模型训练”的事实澄清:近期有媒体称“字节跳动大模型训练被实习生攻击”,经公司内部核实,确有商业化技术团队实习生发生严重违纪行为,该实习生已被辞退,公司也将其行为同步给行业联盟和所在学校,交由校方处理。
4月18日消息,康佳今日举办2022春季战略新品线上发布会,康佳与字节跳动收购的原锤子科技Smartisan OS团队合作开发大屏操作系统,新推出了可自由拼屏的智慧大屏,这是字节跳动首次正式切入大屏产业链。康佳电子科技中国区营销事业部总经理朱忠庆透露,康佳下一步会深挖智慧屏的细分场景需求,计划今年下半年推出旋转屏的2.0产品。
8月14日消息,为推动全模态大模型的研究与应用,字节跳动Seed团队发布并开源了全模态PyTorch原生训练框架——VeOmni。据介绍,VeOmni采用以模型为中心的分布式训练方案,可将复杂的分布式并行逻辑与模型计算解耦,为全模态模型组合设置高效的并行训练方案。这一方式可大幅降低工程开销,提升训练效率和扩展性,将数周的工程开发时间缩短至几天。