来源_迈慕财务 发文日期_2024年01月02日
管理部门报销招待费用会计分录怎么做?能抵扣进项税吗?
正文 智能车芯片,来了国产新玩家 在内外两重因素作用下,爱芯元智入局智能车赛道,推出新产品和车载品牌:爱芯元速。 车载芯片,迎来国产新势力。亮相即量产:一款支持L2级辅助驾驶芯片M55芯片,量产上车;两款在途芯片:M76H,支持高速NOA;M77H,支持城区NOA。整体定位Tier 2,面向客户还提供了完整工具链和软件开发平台。公司名叫爱芯元智,车载芯片领域的新人,刚刚发布了面向智能驾驶领域的车载品牌。作为AI和边缘计算芯片赛道里的明星玩家,爱芯元智依靠两大自研核心技术混合精度NPU和AI-ISP,创办仅四年,融资超20亿,投资方包括了腾讯、美团和启明创投等big name.所以入局车载芯片赛道,为什么是现在?车载芯片新玩家爱芯元智的车载业务*次亮相,是在今年6月。定位Tier 2,目前已经实现M55芯片在两款车型上量产,该芯片算力可实现L2级辅助驾驶。第二款芯片M76H在今年年初已经回片,该芯片在设计时原生支持了Transformer架构。目前正在车规认证中,计划明年一季度完成认证,该芯片可支持高速NOA,实现行泊一体。爱芯元智透露,明年的重点任务之一就是与合作伙伴一道,打造成熟的M76H域控解决方案,争取下半年正式上车。爱芯元智目前也正在自研第三款芯片M77H,来支持城区NOA,预计最早明年可回片。总结一下就是,在爱芯元智的整体规划中,其车载品牌爱芯元速针对不同等级的智能驾驶需求,都将有对应的参考解决方案。包括基于M55H的CMS电子外后视镜系统、二合一驾驶监视系统、智能前视系统,以及基于M76H的行驶辅助和自动泊车系统。芯片之外,爱芯元速还推出了自动驾驶工程化平台xADEP。该平台基于M系列智能驾驶芯片,配合两大技术,融合中间件和工具,能够帮助合作伙伴开发更高效灵活。支撑爱心元智产品的是两大自研核心技术:混合精度NPUAI-ISP。所谓混合精度,计算机底层计算主要分为整数和浮点数,不同类型的数精度不同,将不同精度的数值混合计算可以加速训练和减少内存占用。混合精度NPU采用多线程异构多核设计,通过融合设计方式实现低功耗高性能,降低BOM成本。同时提供了成熟的NPU工具链,主流网络原版模型可全部在NPU上运行,无需CPU补充额外算子,有利于加快企业算法移植和开发。混合精度NPU是爱芯元智底层计算上的核心技术,AI-ISP则提供了感知能力。ISP(Image Signal Processing)主要是处理前端图像信号,传统ISP由几十个硬件??樽槌?,一个??楦涸鹨徊糠止δ?。AI-ISP则是将几个主要的??榘ń翟?、宽动态、色彩调节、锐化清晰度的调节等,用AI模型取代了传统硬件。这样的好处是,通过深度学习将整个ISP和前端传感器形成相关性,学习到前端特性后,就可以在后端图像处理针对优化。传统ISP方式在芯片做好后基本就固定了,想做调整可调参数有限。而现在AI-ISP的主要??槭峭ü鼳I算法实现,可以有针对性地训练AI模型。AI-ISP面对智能驾驶夜间行车的场景时,能够将车道线识别的更准更远,但实际上AI-ISP是爱芯元智最早在智慧城市业务应用的技术。这是爱芯元智,首次公开“上车”进程。谁是爱芯元智爱芯元智成立于2019年5月,创始人仇肖莘,本硕就读于清华大学自动化专业,其后在南加大(USC)获得电气工程博士学位,毕业后进入了半导体领域。仇肖莘先后担任美国AT T Labs—Research首席科学家,美国博通公司副总裁,紫光展锐首席技术官等职务。2019年5月创办了爱芯元智,四年多的时间里,研发并量产了四代多颗端侧、边缘侧AI芯片,并且大规模出货。截至目前,已完成了约20亿元融资,投资方包括腾讯、启明创投、美团等。此前主要聚焦智慧城市业务,会选择入局车载芯片,从自身来看,首先爱芯智元认为,过去做的业务在技术上和现在的车载业务是有相通点的。比如爱芯元智的混合精度NPU,在智能驾驶上其IP核(Intellectual Property)基本架构和智慧城市业务的一样,算力大小可以不同。原来在智慧城市上落地的AI-ISP,可以帮助智能驾驶夜间识别车道线更清晰。这是爱芯元智认为自身技术上的优势,同时爱芯元智表示,其入局车载芯片还有一项优势是,已经有了一项主营业务平摊车载芯片研发成本,打磨工具链,降低供应链成本。除了自身优势,外部市场也是催生车载芯片新玩家的重要因素。智能驾驶逐渐成为标配,汽车不搭载智能驾驶就意味着落后,分析机构Canalys在一季度相关报告中指出:中国(含进口)新能源乘用车前装标配L2辅助驾驶搭载率已达62.2%。而且智能驾驶成本还在下探,整车厂对智能驾驶芯片有着越来越大的需求。在内外两重因素作用下,爱芯元智入局智能车赛道,推出新产品和车载品牌:爱芯元速。CEO仇肖莘还在发布会上援引了一份第三方市场报告。报告显示,今年前8个月中国市场乘用车标配行车ADAS功能国产SoC(处理器)市场份额里,爱芯元智位居国产智能驾驶芯片市场第二。但是从全球范围看,中国配备ADAS功能芯片方案车型,仅有4.41%来自本土供应商。这意味着这片日渐火热的海域里,水大鱼大,国产玩家前途宽广。 【本文由投资界合作伙伴微信公众号:智能车参考授权发布,本平台仅提供信息存储服务。】投资界处理。淘宝告别「双12」?
正文 2024年的生成式AI,到底该投什么? 随着后续越来越多的AI应用厂商进入到实质性商业化阶段,AI领域的投资也将进入更加复杂的阶段。 随着AI故事的演进,一个重要问题逐渐摆在了投资人面前:生成式AI到底应该投什么?想要回答这个问题,我们不妨看看移动互联网的发展历史。在很多人看来,生成式AI的机会有点像移动互联网。回顾移动互联网的发展,大概有三个关键阶段:2007 年,iPhone 1 发布,至此移动互联网开始正式启航;2010 年,iPhone 4 发布,奠定了移动互联网的基本框架;2012 年,移动互联网的应用开始爆发,字节、滴滴、小红书纷纷成立。从逻辑上讲,GPT 3.5 的发布,更像是 AI界的iPhone 1时刻,发展方向已经明确,但产业框架尚不清晰。这样的混沌也一定程度上增加了投资的难度,甚至会出现不少的投资“陷阱”。这样的事情在移动互联网时代同样发生。在移动互联网早期,“手电筒”等工具类产品以及应用商店曾经吸引了不少投资人的押注?:罄吹氖率抵っ?,这不过是移动互联网的投资“陷阱”。如何寻找移动互联网的投资机会?五源资本的方法或许值得大家参考。根据五源资本刘芹此前对移动互联网的分析:手机具备了PC的特点。但是,手机还有三个非常重要的东西,是PC上没有的:1)手机上有位置的参数;2)手机里面有通讯录;3)手机有摄像头,有外放设备。沿着这个逻辑,五源资本得出一个结论:下一代杀手级的应用是移动的、社交的和富媒体化的。沿着这个逻辑,当我们在寻找生成式AI的投资机会,倒不如多问自己几句:什么能力是生成式AI独有,而以前不具备的?/ 01 /大模型进入应用时刻2023年是大模型真正破圈的一年。回顾本轮生成式AI的突破,来自于底层大模型的持续进化。GPT 作为当前全球最强大的语言大模型,从2018年5月GPT初代版本,到2023年3月的 GPT-4,仅5年时间模型的性能就产生了质的飞跃。从目前看, GPT 模型快速进化的原因主要有两个:一是训练方法的持续迭代,从 GPT-1 的半监督式学习,到 GPT-2 舍弃了微调阶段,再到 GPT-3 的 In-context 学习和海量参数,以及引入了基于人工反馈的强化学习之后的ChatGPT。二是在模型参数规模扩大背后,是 OpenAI 对研发和算力的持续高投入,通过“大力出奇迹”的方式,支撑了模型参数和训练数据的快速膨胀。随着大模型以及 ChatGPT 等一系列“杀手级”应用的诞生,生成式 AI 在文本、图像、代码、音频、视频和 3D 模型等领域展现出了强大的能力。今年3月,微软发布了基于GPT-4的AI办公助手office Copilot,此后包括企业服务、营销、低代码、安全、教育、医疗、金融等领域的AI应用开始陆续发布。7 月份,Microsoft 365 Copilot 公布定价,为每个用户 30 美元/月,同时全球CRM龙头 Salesforce 宣布正式向所有用户开放AI产品,并给出了单个产品每用户每月50美元的定价。随着两大软件巨头AI功能定价发布,AI 应用将正式进入商业化落地阶段。生成式 AI的应用不止停留在B端,C端的落地速度同样可观。11 月 29 日,成立仅半年的 AI 初创公司 Pika 正式推出 AI 视频生成工具 Pika1.0,同日公司宣布获得 5500 万美元的融资,当前估值 2.5 亿美元。Pika的特点在于,能够实现从普通 2D 动画到实拍感的电影场景、3D 动画全面 覆盖,还能够支持对视频实时编辑和修改,其中生成的视频在光影、动作流畅度等方面甚至都不输好莱坞动画电影级别。种种迹象显示,在模型、算力、生态推动下,AI 应用正在进入大爆发时代。/ 02 /资本纷纷押注大模型基础设施生成式AI的高速增长,也引爆了相关领域的投资。从一级市场看,截至8月底,GitHub 上 AI 开源项目数量达到了 91 万,相较于去年全年的增幅达到 264%。根据Replit的数据,23年二季度AI项目环比增速达 80%,相较于去年同期同比增长了34倍。从去向看,大部分生成式 AI 项目还处在早期,大部分资金投向了包括大模型开发在内 AI 基础设施层, 而应用层资金流向仅占三成。其中,基础设施层的投资集中度相对较高。自22年第三季度以来,AI基础设施层,在投融资的数量仅占总数的 10%的情况下,投融资的金额占据生成式AI融资金额的70%以上,这也体现了基础设施层资金密集型的特点。在应用层,通用AI应用占大多数*主导,占比达 65%。相比之下,垂直行业应用目前无论投融资的数量还是金额都要远低 于通用型应用。从二级市场看,AI 算力基础设施层公司率先受益于 AI 产业浪潮,其中英伟达是 AI“掘金买铲”逻辑的核心受益者,其次为微软、Google、AWS、Oracle 等头部云服务厂商和大模型厂商。原因在于,在当下的生成式AI产业链里,基础设施层是最确定的环节。根据海外风险投资机构 Andressen Horowitz 的粗略估算,应用厂商平均需要将 20-40%的收入支付给云服务商或大模型厂商,同时大模型厂商通常也会将近一半收入用于支付云基础架构。也就是说,当前生成式AI总收益的10-20%流向了云服务商。在硬件层面,英伟达是最受益的标的,其主力 AI 芯片 A100、 H100 承载了绝大多数 AI 模型训练与开发,占据 AI 服务器硬件成本的近 90%。尽管AI 应用仍然处于早期,且应用层从商业化以及兑现时间会落后于基础设施层几个季度,但今年以来头部应用厂商股价同样也有所演绎。今年年初至今,Palantir、Salesforce、Shopify等应用层公司也都有着不错的涨幅。随着后续越来越多的AI应用厂商进入到实质性商业化阶段,AI领域的投资也将进入更加复杂的阶段。/ 03 /寻找生成式AI的投资脉络在信息技术脉络里,软件和硬件呈现了完全不同的发展轨迹。在软件行业,只有直接掌控用户和数据资产的平台型应用才是最终的赢家。而在半导体行业,比下游直接面向用户的电子产品公司有更高的集中度,高通、台积电和英特尔在各自领域都有极强的话语权。换言之,AI世界的演进路径会更接近半导体还是互联网行业,意味着*的蛋糕到底会出现在模型层还是产品层?在回答这个问题前,我们先来看下AI与上述两个领域究竟有何不同。与很多行业不同,半导体行业的发展逻辑来自消费市场对性能永无止境的需求,并最终演化为摩尔定律。这迫使制造巨头们通过巨额研发投入,持续保持了每一代产品的技术*。在这个过程中,性能提升会越来越难,其带来的收入增长和所需巨额研发成本往往是不匹配的,这构成了半导体制造的极高的壁垒。但这样的情况并不会出现在生成式AI的模型层,原因有两点:一是软件相比硬件更难保持技术的长期*。目前,大模型的投入成本主要在训练成本,但训练成本相比造芯片动辄几十亿的投入相比还是小巫见大巫。这也能从国内外大模型发展看出。尽管国内与国外大模型仍有明显差距,但相比年初差距已有明显缩短。二是相比消费者对手机和PC「性能」的无限需求,在很多场景下,用户对生成式AI的智能化程度呈现边际递减的。也就是说,所有场景对生成式AI性能的要求并不是无限的。既然模型层逻辑跑不通,但要说应用层公司有很大机会,也未必。原因在于,大模型逻辑下,产品体验与控制模型高度绑定,且数据反馈对模型改进至关重要。在这种情况下,你很难相信一个高度依赖大模型厂商的应用层公司。而对应用层公司来说,把自身高质量数据完全交给大模型厂商去进行迭代,本身也是一件风险极高的事情。从这个角度上说,无论是模型层还是应用层公司都有各自的问题,同时占据模型层和应用层的全栈公司或许才有捕获*价值的可能。 【本文由投资界合作伙伴微信公众号:读懂财经授权发布,本平台仅提供信息存储服务。】投资界处理。当代年轻人正在花钱「发疯」