不断加速的技术采纳周期与科技股投资的枢纽不断加速的技术采纳周期技术转型可以非常迅速地进行,采纳率从零增长到成熟可能在不到10年的时间内完成。
近年来最好的例子包括智能手机的使用、社交媒体应用和流媒体服务。
回顾历史,技术采纳周期老是不断加速:source:Visualcapitalist但即便是100多年前,纽约的街道也仅在十年的时间里,就从马车时代迅速转变为挤满了汽车。
当这些技术转型即将起飞时,市场常常严峻低估它们的潜力。
一些例子包括特斯拉、英伟达、亚马逊、微软、ASML、Shopify、Netflix、ServiceNow等等,例子的名单很长。
科技股投资的枢纽考虑进入壁垒和长期市场份额考虑进入壁垒和长期市场份额是区分良莠的好工具。
没有足够护城河的公司将无法捉住新机会,由于竞争对手会迅速泛起,腐蚀行业回报,尽管增长水平很高。
其次,你想要挑选那些有相称高成功机会的新技术,或者至少相应地调整你的头寸。显然,在长期投资中据有大量权重是愚蠢的。
科技是选股者极其有利可图的领域,尽管不是轻易驾驭的,由于通常需要对底层技术和行业有深入的了解。
然而,在过去八年中,自动驾驶出租车和自动驾驶市场是投资者感到失望的领域。在2016年到2018年间,一些最大的科技公司向我们承诺,自动驾驶仪指日可待,自动驾驶出租车不久将推出。
显然,这并没有发生,现在好像每个人都健忘了这个领域,包括我自己直到去年。我多年来都没有关注这个领域。
但这也是选股的另一个美妙之处,在随后的几年里,暴露于这一主题的大盘科技股的表现非常精彩,由于尽管自动驾驶出租车的宏伟目标没有实现,它们的核心业务仍旧表现得非常好。
为什么Transformers正在改变自动驾驶领域的游戏规则上下文感知与吸收更多数据对自动驾驶的价值重新审阅这个领域的原因是,自2016-2018年以来,AI技术已经取得了明显的进展,我们现在将进行探讨。
首先,跟着ChatGPT的崛起,显然在AI世界中,立异仍在以令人印象深刻的速度推进。
ChatGPT背后的算法最初是由谷歌的研究职员在2017年提出的,即Transformers。Transformers拥有一种数学方法论,能够在更广泛的时间跨度上记忆上下文。类似于当你阅读文本时,你会记住你之前阅读过的文本的上下文。
以前的AI算法只利用了它们刚刚读过的句子(RNNs)。因此,仅仅由于2018年基本的卷积神经网络结合了RNNs和手写的C++代码行不足以驾驶汽车。
AI算法仍在迅速发展,特别是,更好的上下文感知方法论的加入显然将提供巨大的匡助。
那么,假设一个行人正在一辆停放的卡车后面过马路,假如汽车的摄像头已经提前检测到了行人,Transformer就可以记住行人仍在卡车后面的路上。对于卷积模型,这是不可能的,由于它纯粹是在分析它所接收到的图像。RNN会做得更好,然而,它的时间跨度是有限的,所以假如你在某个地方被耽搁了较长时间,Transformer仍旧能够记住重要的上下文,而RNN则会将其从记忆中丢弃。
另一个长处是Transformer可以吸收更多的数据。
同样,这对于理解上下文非常重要。假设在道路的两侧各有一只狗。假如模型之前已经见过类似的情况,它现在知道这些狗非常有可能开始相互交流,好比一只狗忽然跑过马路。车辆可以自动开始减速,预备可能需要的泊车。
Transformers如何模拟周围环境中主体的行为谷歌自动驾驶团队最近发表的一篇论文阐述了如何使用Transformers来模拟周围环境中行为主体的行为:“受最近的语言建模方法启发,我们使用掩码策略作为我们模型的查询,使人们能够调用单个模型以多种方式猜测署理行为,例如可能根据自动驾驶车辆的目标或完整未来轨迹,或者环境中其他署理的行为进行前提化猜测。我们的模型架构采用注意力机制来结合道路元素、署理交互和时间步骤的特征。我们在自动驾驶数据集上评估我们的方法,用于边际和联合运动猜测,并在两个流行的数据集上实现了最进步的机能。我们展示了我们的模型可以同一各种运动猜测任务,从联合运动猜测到前提化猜测。”Transformers和自动驾驶的最新进展一篇最近在Arxiv上发表的论文总结了Transformers和自动驾驶方面的最新发展。
下面我凸起了最相关的段落,这些应该能让你对Transformers的使用有一个良好的了解:“Transformers已经彻底改变了自然语言处理(NLP),像BERT、GPT和T5这样的模型在语言理解方面树立了新的尺度(Alaparthi20,Radford18,Raffel20)。它们的影响不仅限于NLP,由于计算机视觉(CV)社区开始采用Transformers进行视觉数据处理。这种从传统的卷积神经网络(CNNs)和轮回神经网络(RNNs)到计算机视觉中的Transformers的转变标志着它们日益增长的影响力,图像识别和对象检测的早期实现(Dosovitskiy20,Carion2020,Zhu20)显示出了有但愿的结果。在自动驾驶(AD)领域,Transformers正在改变一系列枢纽任务,包括目标检测(Mao23)、车道检测(Han22)和分割(Ando23,Cakir22),并且可以与强化学习(Seo,Vecchietti)结合来执行复杂的路径寻找。它们在处理空间和时间数据方面表现出色,超越了传统的CNNs和RNNs,在复杂功能如场景图天生(Liu22)和追踪(Zhang23)方面表现更佳。Transformers的自注意力机制为动态驾驶环境提供了更全面的理解,这对于自动驾驶车辆的安全导航至关重要。在自动驾驶中,Transformers作为高级特征提取器发挥作用,与CNNs不同,它们通过整合更大视觉场的信息来实现全局场景理解。它们并行处理数据的能力提供了明显的计算效率,这对于自动驾驶车辆的实时处理至关重要。全局视角和效率使Transformer在自动驾驶技术中具有高度上风,增强了系统能力。VisionTransformer模型的应用在自动驾驶中的3D和一般感知任务方面取得了明显进展。最初的模型,如DETR(Carion2020),采用了一种立异的方法来进行目标检测,将其框架化为集合猜测问题,使用预定义的框,并利用匈牙利算法来猜测对象集合。这种方法在DeformableDETR(Zhu20)中得到了进一步的改进,它引入了可变形注意力,以进步查询清晰度和更快的收敛速度。DETR3D(wang2022)将这些原则扩展到了3D目标检测,将激光雷达数据转换为3D体素表示。此外,像FUTR(Gong2022)和FUTR3D(Chen2023)这样的视觉Transformer已经扩大了它们的视野,包括多模态融合,有效地处理来自各种传感器的输入,以增强整体感知能力。Transformers在自动驾驶中的作用日益枢纽,尤其是在猜测、规划和决议计划方面。这一进展标志着向端到端深度神经网络模型的重大转变,这些模型整合了整个自动驾驶流程,将感知、规划和控制纳入一个同一的系统。这种全面的方法反映了与传统模型比拟的实质性发展,表明自动驾驶车辆技术正朝着更全面和集成的解决方案发展。在轨迹和行为猜测方面,基于Transformer的模型,如VectorNet(Gao2020)、TNT(Zhao2021)、DenseTNT(Gu2021)、mmTransformer(Liu2021)和AgentFormer(Yuan2021)已经解决了尺度CNN模型的局限性,特别是在远程交互建模和特征提取方面。VectorNet通过使用分层图神经网络来增强空间关系的描述,这用于高清晰度舆图和署理轨迹表示。TNT和DenseTNT改进了轨迹猜测,DenseTNT引入了无锚点猜测功能。mmTransformer利用堆叠架构进行简化的多模态运动猜测。AgentFormer独特地答应署理间状态随时间推移直接影响,保存了枢纽的时序和交互信息。WayFormer(Nayakanti2023)通过其立异的融合策略进一步解决了静态和动态数据处理的复杂性,进步了数据处理的效率和质量。自动驾驶中的端到端模型已经明显发展,特别是在规划和决议计划方面。TransFuser(Chitta2022,Lai2023)通过使用多个Transformer模块进行全面的数据处理和融合来体现这种演变。NEAT(Chitta2021)引入了一种新奇的BEV坐标映射函数,将2D图像特征压缩成简化的表示。在此基础上,InterFuser(Shao2023)提出了一种同一的多模态传感器数据融合架构,进步了安全性和决议计划准确性。MMFN(Zhang2022)扩大了数据类型的范围,包括高清舆图和雷达,探索了多样化的融合技术。STP3(Hu2022)和UniAD(Hu2023)进一步为这一领域做出了贡献,STP3专注于时序数据整合,而UniAD重新组织任务以实现更有效的规划。这些模型共同标志着朝着集成化、高效和更安全的自动驾驶系统迈出了重要一步,展示了Transformer技术在这一领域变革性的影响。/"显然,这个领域的立异步伐极其活跃,大量的发展仅在过去几年内才被引入。
Transformers如何用于自动驾驶车辆的路线规划,同时猜测四周物体的运动的示例:
Transformers如何用于检测自动驾驶车辆周围环境中的枢纽物体的示例:
自动驾驶中的枢纽挑战是车辆理解其周围环境的完整上下文的难度。
例如,这条车道仅供有轨电车使用,以及各种复杂的城市环境,如手持路标的街道工人在四周走动,道路上的动物,需要通过的救护车,在路上用手示意指令的署理,汽车后部运输的自行车,或在车辆上展示的人物或动物的图像。
source:MITTechnologyReview边沿情况种类繁多。Transformers在理解这些上下文方面显然会提供很大匡助,尽管它是否足够还有待观察。
自动驾驶实际表现的提高与此同时,自动驾驶车辆(AVs)在实际领域的表现显著更好。
特斯拉通过FSD12,已经转向使用单一的端到端神经网络进行自动驾驶,包括使用Transformers来处理视觉输入。这个网络是在特斯拉车队中最优秀的驾驶员提供的数百万视频片断上练习的,它取代了超过30万行的C++代码。
根据我看到的用户评论,反馈普遍积极,例如BradGerstner和BillGurley将其比作ChatGPT或iPhone时刻。同时,自动驾驶出租车在越来越多的城市扩大运营。
硬件快速提高自动驾驶决议计划机能将超越人类与2018年之前失败的推出比拟,现在不同的最后一因素是,得益于ASML、台积电(TSMC)和英伟达(Nvidia)等朋友的匡助,硬件已经变得如斯精彩。
更好的硬件在自动驾驶方面的一个巨大上风是,它答应练习和推理更大的参数模型,从而使车辆能够更好地理解其周围环境的所有必要上下文。
这增加了车辆持续做出准确决议计划的可能性,这应该会跟着时间的推移,使其在机能上大大超越人类驾驶员。
source:Nvidia最后,有一种反对自动驾驶出租车的趋势,由于人们以为它们不安全。
然而,道路上的人类驾驶员产生了大量的危险:超速、分心驾驶、酒后驾车、粗心驾驶、闯红灯和泊车标志、认知受损的驾驶员、尾随、道路愤怒等。
美国国家公路交通安全管理局呈文称,在2022年,仅因分心驾驶(例如驾驶员在开车时使用手机)就有超过289,000人受伤。
长期来看,假如数据显示自动驾驶车辆的安全性比人类高出10倍,政府很可能会开始考虑禁止人类在道路上操纵车辆。
这类似于现在在公共室内环境中已经禁止抽烟。不久前,你还可以在街上、飞机上、办公室里、大学走廊里抽烟,但现在不再答应了。
自动驾驶正处于经典S曲线的出发点?
总之,将这三个因素结合起来看:我们有很多正在进行的底层数学算法的改进,这些改进赋予了自动驾驶车辆更好的上下文感知能力和更好的决议计划能力,我们确实在实际领域看到了更好的结果,并且我们仍在持续获得更强盛的半硬件,从而实现更好的上下文感知模型。
因此,我们可能正处于新技术采用模式的经典S形曲线的出发点——参见本文中我们讨论过的第一张图表——即起初缓慢,然后斜率逐渐加速,直到达到高采用率。
未经允许不得转载:头条资讯网_今日热点_娱乐才是你关心的时事 » 自动驾驶进入技术采纳加速期