电商派
首页快讯观察
  • 快速导航
  • 零售
  • 物流
  • 人物
  • B2B
  • 生活服务
  • 跨境电商
  • 行业观察
投稿合作平台简介
联系我们
版权声明
投稿推荐
商务合作
Copyright © 电商派 All Rights Reserved粤ICP备15083824号| ICP许可证: 粤B2-20201419404粤公网安备44030002005228
    1. 阿里达摩院公开“基于预训练服务系统的服务提供方法”专利
      2022-05-07 11:47:49
      阿里巴巴达摩院公开一项“预训练服务系统及基于预训练服务系统的服务提供方法”专利。
    2. 腾讯RoboticsX用预训练模型和强化学习提升机器狗控制
      2023-06-14 15:18:59
      6月14日消息,腾讯RoboticsX机器人实验室公布了智能体研究的最新进展,通过将前沿的预训练AI模型和强化学习技术应用到机器人控制领域,让腾讯机器狗Max的灵活性和自主决策能力得到大幅提升。
    3. 百川智能发布中英文预训练大模型baichuan-7B
      2023-06-15 17:39:13
      6月15日消息,搜狗创始人王小川创立的百川智能公司,宣布推出了70亿参数量的中英文预训练大模型——baichuan-7B。目前baichuan-7B大模型已在Hugging Face、Github以及Model Scope平台发布。据介绍,baichuan-7B代码采用Apache-2.0协议,模型权重采用了免费商用协议,只需进行简单登记即可免费商用。北京大学和清华大学已率先使用baichuan-7B模型推进相关研究工作,并计划在未来与百川智能深入合作,共同推动baichuan-7B模型的应用和发展。
    4. 滴滴公开“音频数据的预训练、模型训练方法”专利
      2021-09-06 14:20:14
      滴滴关联公司北京嘀嘀无限科技发展有限公司9月3日公开一项“音频数据的预训练、模型训练方法、装置、设备及介质”专利。
    5. 阿里达摩院实现全球最大AI预训练模型
      2021-11-08 15:45:18
      11月8日消息,今日,阿里巴巴达摩院公布多模态大模型M6最新进展,其参数已从万亿跃迁至10万亿,规模远超谷歌、微软此前发布的万亿级模型,成为全球最大的AI预训练模型。同时,M6做到了业内极致的低碳高效,使用512 GPU在10天内即可训练出具有可用水平的10万亿模型。相比去年发布的大模型GPT-3,M6实现同等参数规模的能耗仅为其1%。
    6. 阿里巴巴、智源研究院等联合发布预训练AI模型 “文汇”
      2021-01-12 11:58:42
      1月12日消息,日前,阿里巴巴、北京智源人工智能研究院、清华大学、中国科学院等联合研究团队发布面向认知的超大规模新型预训练模型“文汇”,旨在探索解决当前大规模自监督预训练模型不具有认知能力的问题。“文汇”也是目前我国规模最大的预训练模型。据了解,该模型不仅能提升AI的理解能力,还可基于常识实现AI创作,未来将应用于文本理解、人机交互、视觉问答等场景。
    7. 网易申请AI大模型玉言商标
      2023-08-08 10:22:03
      8月8日消息,天眼查App显示,近日,网之易信息技术 有限公司申请注册“网易玉言”商标,国际分类为网站服务,当前商标进度为申请中。据此前媒体报道,“玉言”为网易伏羲实验室推出的中文预训练大模型,其相关技术已用于网易集团内的文字游戏、智能NPC、文本辅助创作、音乐辅助创作、美术设计、互联网搜索推荐等业务场景。
    8. 网易CEO丁磊:人工智能价值已经被引导到了社会生产第一线
      2023-04-27 14:30:25
      网易目前已自研数十个超大规模预训练模型,覆盖自然语言等多种模型领域。
    9. 阿里巴巴发布“通义”大模型系列,推动AI从单一智能向通用智能进化
      2022-09-02 14:47:13
      9月2日,阿里巴巴达摩院主办世界人工智能大会“大规模预训练模型”主题论坛。
    10. 腾讯混元大模型正式亮相
      2023-09-07 10:01:41
      混元大模型参数规模超干亿,预训练语料超2万亿tokens,已经在腾讯云、腾讯广告、微信搜一搜等多个腾讯内部业务和产品经过测试,同时也服务产业场景。
    11. 阿里推出“通义”大模型系列
      2022-09-02 14:26:50
      9月2日消息,阿里巴巴达摩院今日主办世界人工智能大会“大规模预训练模型”主题论坛。会上,达摩院副院长周靖人发布阿里巴巴最新“通义”大模型系列,并宣布相关核心模型向全球开发者开源开放。面向大模型通用性与易用性仍欠缺的难题,通义打造了业界首个AI统一底座,并构建了大小模型协同的层次化人工智能体系,将为AI从感知智能迈向知识驱动的认知智能提供先进基础设施。
    12. 阿里云曾震宇:大模型等新技术让智能制造场景更加可期
      2023-04-28 17:29:55
      曾震宇认为,未来在云技术、多模态预训练大模型、生成式AI等创新技术的加持之下,智能制造的场景将会愈加清晰和可期。
    13. 小米开源首个推理大模型Xiaomi MiMo
      2025-04-30 11:47:12
      4月30日消息,小米开源首个为推理(Reasoning)而生的大模型“Xiaomi MiMo”,联动预训练到后训练,全面提升推理能力。
    14. 拉勾招聘上线AI智能招聘助手产品“HRMind”
      2023-07-20 10:02:34
      7月20日消息,拉勾招聘宣布上线AI智能招聘助手产品“HRMind”,这是在招聘行业内首个基于预训练大模型实现广泛应用的招聘场景产品。据介绍,HRMind可处理对话聊天、智能问答等多轮交互沟通。未来,该产品还将实现帮助HR模拟面试、分析求职者简历等功能。
    15. 阿里云宣布启动全球最大智算中心
      2022-08-30 15:35:01
      8月30日消息,阿里云宣布全面开放旗下智能计算平台“飞天智算”,并正式启动张北、乌兰察布两座超大规模智算中心。在云端,张北智算中心支撑AI预训练大模型、AI Earth、数字人等前沿AI应用,将成为全球最大的智算中心。通过先进的技术架构,飞天智算平台实现了90%的千卡并行计算效率,可将算力资源利用率提高3倍以上,AI训练效率提升11倍,推理效率提升6倍。
    16. 阿里达摩院人工智能科学家杨红霞离职
      2022-10-11 14:32:26
      10月11日消息,Tech星球独家消息称,阿里达摩院大模型带头人杨红霞已于9月初离职,杨红霞是人工智能科学家,也是超大规模多模态预训练模型M6的技术负责人。此次杨红霞离职,被认为是达摩院对一些难以落地的商业化项目进行调整。据了解,杨红霞曾带领团队获2019世界人工智能大会最高奖卓越人工智能引领者,2020年国家科学技术进步奖二等奖。在今年,杨红霞也获得2022年福布斯中国科技女性50强的荣誉。
    17. 猎聘ChatGPT相关领域报告:人工智能职位平均年薪33.15万元
      2023-02-20 15:15:09
      2月20日消息,猎聘大数据研究院推出《ChatGPT相关领域就业洞察报告》,解析人工智能领域的就业趋势,以及与ChatGPT密切相关的三个分支领域——预训练模型、对话机器人和AIGC 的人才需求情况。数据显示,猎聘大数据研究院以2018一季度为参照点(基数),此后至2022年,以各季度的人工智能、互联网新发职位数与2018一季度新发职位数相除得到结果:五年来,互联网人才需求增长趋势平缓,人工智能人才需求在2020年之后整体迅速上升。
    18. 高盛:予腾讯控股“买入”评级 目标价443港元
      2023-06-23 15:39:53
      6月23日消息,高盛发布研究报告称,给予腾讯控股“买入”评级,目标价443港元。该行指出,腾讯推出大规模模型即服务产品,提供涵盖模型预训练、微调和智能应用开发的一站式行业大模型解决方案。该产品是中国大型互联网公司迈出关键的一步,相信通用模型和行业模型将相互补充,使企业客户能够针对每个特定场景选择最佳选择,能够跨场景执行各种复杂任务或采用组合方法的参数。
    19. 度小满发布“轩辕70B”金融大模型
      2023-09-22 16:55:20
      9月22日消息,度小满今日宣布“轩辕70B”金融大模型开源,所有用户均可自由下载和试用。据介绍,本次发布的新版大模型相较上一个版本能力全面提升:在增量预训练和指令微调阶段,加入了度小满业务场景中的海量金融数据,对金融问题回复更专业,金融知识理解能力提升明显;同时在预训练阶段,“轩辕70B”的模型上下文长度扩充到8k,能够处理更长的金融报告、研究和分析。
    20. 阿里云开源通义千问720亿参数模型
      2023-12-01 10:36:04
      12月1日消息,在通义千问发布会上,阿里云开源通义千问720亿参数模型Qwen-72B、18亿参数模型Qwen-1.8B及音频大模型Qwen-Audio。据悉,阿里云本次开源的模型中除预训练模型外,还同步推出了对应的对话模型,面向72B、1.8B对话模型提供了4bit/8bit量化版模型,便于开发者们推理训练。
    • ‹‹
    • ‹
    • 1
    • 2
    • 3
    • ›
    • ››