通义灵码,让梦想照进现实更快一点

news/2024/12/11 18:14:09/文章来源:https://www.cnblogs.com/yyds114/p/18600385

“大模型的出现颠覆了我们学习、研究和生活的方式,对于现在的年轻人来说,掌握 AI 是未来生存、工作的必要技能。”

崔家齐是一位正在北京大学工学院就读的硕士研究生,主攻机器人方向研究。机器人开发领域对交叉学科的知识融合度要求度非常高,每天都处于技术杂糅的状态里,是家齐和同学们感受最明显的挑战之一。一次上课时了解到通义灵码,让他找到了可以快速解决这个问题的方法。

“之前在北大信息科学技术学院开设的创新课程里,通义灵码的老师来做了一次分享,也让我第一次了解到大模型技术可以直接嵌入到编程环境里,我只要输入自然语言,通义灵码就可以帮我编写成片的代码,并在编程过程中为我提供代码的续写和补充,极大地提高了我们的学习和编程效率”。 崔家齐回忆起和通义灵码初次相识时的场景。

他还介绍,机器人开发每天需要接触很多新的通讯协议、控制架构等,现在即使同学们对相关领域完全不懂,也可以先通过使用通义灵码自然语言生成的代码获得提示,了解某些从未使用过的函数具体使用方法、代码架构的设计等,再结合需求进行具体编程, “之前一两周的开发工作量,我现在一两天就可以完成了”。

在感受到通义灵码带来的效率提升后,崔家齐也将这款智能编程助手推荐给了更多同学。最近,通义灵码正和他所在的实验室的师兄师弟们一起,参与到一款用于人体躯干康复的外骨骼机构项目开发中,“我们希望能够改变传统运动康复里机械臂相对单一的应用模式,通过对人体康复力的在线估计等,基于个体差异,实现针对不同康复阶段患者的、可变刚度的智能辅助机构”,家齐介绍了同学们要在这个创新项目中实现的目标。

在这个项目开发的过程中,同学们需要大量地运用代码,去实现机器人设备的控制、对人体的姿态力估计等特殊算法,而这些知识可能是之前他们并不了解的。 “在进行基本搭建时,通义灵码帮我们介绍了很多之前不熟悉领域的代码和函数的架构,此外,用它的代码优化功能还帮我们实现了集群和代码的调优,让我们整个项目可以做得很快。”

家齐进一步介绍了在提升团队协作效率方面,通义灵码也有帮助。 参与项目的同学会按照通义灵码智能生成的整体项目框架做分工,每个人负责一部分,提升工作上的同步效率,并阶段性地将各自编写的文件交给通义灵码汇总成整体的工程性文件,较好地实现了从总体计划到分工,再到整合的过程。

谈到对未来的规划,崔家齐表示将继续深入目前领域的研究,并希望推动机器人在实际场景的落地应用,“随着机器人技术越来越成熟,它和人之间的交互形式可以更多样。自己在这个领域学习了比较长的时间,后面也计划从科研的角度、工业的角度继续做机器人的开发和深入研究。也希望继续和通义灵码一起去实现更大的工程。”

2024 年起,通义灵码已先后与北京、上海、西安、南京等城市十余所高校联合举办高校训练营、路演&巡展、AI 通识课等,帮助数十万名同学打开“AI 时代下的开发者成长指南”。 接下来,通义灵码还将与阿里云云工开物计划一起,向超过 100 所高校师生分享通义灵码背后的技术解析、指导具体实践操作。

未来,通义灵码将助力千万如家齐一样的大学生、青年开发者投入到科技创新中,让更多梦想照进现实的速度更快一点。如果你希望通义灵码来到你的学校,欢迎通过评论留言告讨我们。如果你也有和通义灵码的故事,欢迎邮件联系:yx260241@alibaba-inc.com

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/850975.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

转载:4【AI系统】AI系统概述与设计目标

AI 系统全栈架构 通过对 AI 的发展、以及模型算法、硬件与数据的趋势介绍,我们已经了解了 AI 系统的重要性。本文将介 AI 系统的设计目标、组成和生态,让读者形成 AI 系统的知识体系,为后续展开每篇文章的内容做好铺垫。 AI 系统设计本身需要各个环节通盘考量,无论是系统性…

chrome扩展插件

调用本地WPS 问题:

转载:【AI系统】为什么需要 AI 编译器

本文将通过探讨 AI 编译器的黄金年代以及传统编译器与 AI 编译器的区别等角度,来介绍为什么需要 AI 编译器。 AI 编译器黄金年代 图灵奖获得者 David Patterson 在 2019 年 5 月发表了一个名为“计算机架构新的黄金年代”的演讲,他通过回顾自 20 世纪 60 年代以来的计算机架构…

转载:【AI系统】LLVM 后端代码生成

上一篇文章主要讲了 LLVM 的前端和优化层,前端主要对高级语言做一些词法的分析,把高级语言的特性转变为 token,再交给语法分析对代码的物理布局进行判别,之后交给语义分析对代码的的逻辑进行检查。优化层则是对代码进行优化,比如常量折叠、死代码消除、循环展开、内存分配…

转载:【AI系统】CUDA 编程模式

前面的文章对 AI 芯片 SIMD 和 SIMT 计算本质进行了分析,结合英伟达 CUDA 实现对 SIMD 和 SIMT 进行了对比,本文将以英伟达 GPU 为例,讲解 GPU 的编程模型。 GPU 编程模型 CUDA 英伟达公司于 2007 年发布了 CUDA,支持编程人员利用更为通用的方式对 GPU 进行编程,更好地发挥…

转载:【AI系统】AI 芯片的思考

为了满足数据中心算力需求,谷歌在 2014 年开始研发基于特定领域架构(Domain-specific Architecture,DSA)的 TPU(Tensor Processing Unit),专门为深度学习任务设计的定制硬件加速器,加速谷歌的机器学习工作负载,特别是训练和推理大模型。 David Patterson(大卫帕特森)…

NRF52810超低功耗SOC蓝牙芯片支持ANT和2.4 GHz私有协议NRF52832低成本方案64Marm

nRF52810 系统级芯片(SoC) 是 nRF52 系列的基准成员,是NRF52832的低成本方案。它满足了将高级低功耗蓝牙 功能和协议并发性引入应用的挑战,其价位使得向应用添加低功耗蓝牙连接极具吸引力。它是不太复杂的应用的理想选择,也是大型应用中的低功耗蓝牙 连接处理器的理想选择…

转载:【AI系统】谷歌 TPU 历史发展

在本文中,我们将深入探讨谷歌的 Tensor Processing Unit(TPU)的发展历程及其在深度学习和 AI 领域的应用。TPU 是谷歌为加速机器学习任务而设计的专用集成电路(ASIC),自首次推出以来,TPU 经历了多次迭代升级,包括 TPU v1、v2、v3 和 v4,以及 Edge TPU 和谷歌 Tensor 等…

转载:【AI系统】谷歌 TPUv3 POD 形态

TPU v3 vs. TPU v2TPU v3 实际上就是 TPU v2 的增强版。TPU v3 相比 TPU v2 有约 1.35 倍的时钟频率、ICI 贷款和内存带宽,两杯 MXU 数量,峰值性能提高 2.7 倍。在同样使用除了显眼的蓝色外,相比于 TPU v2,TPU v3 在只增大 10%体积的情况下增加了 MXU 的数量,从 2 个翻倍到…

转载:【AI系统】谷歌 TPUv2 训练芯片

在 2017 年,谷歌更新了他们的 TPU 序列。谷歌将这一代 TPU 称之为 “用于训练神经网络的特定领域超级计算机”,那么显而易见,相比于专注于推理场景的 TPU v1,TPU v2 将自己的设计倾向放到了训练相关的场景。如果回顾历史,在 2017 年前后,深度学习跨时代的工作如雨后春笋般…

四大主流消息队列 场景化选型指导:kafka、rocketmq、rabbitmq、pulsar

消息队列是用于在分布式系统中存储和转发消息的异步通信协议,对于实现系统间解耦合至关重要。通过消息队列选型,开发者能够针对不同业务场景挑选最适合的消息队列,以满足特定需求。例如,在选择消息队列时,需考量其性能要求如吞吐量、延迟等指标,以及是否支持顺序消息或事…

转载:【AI系统】GPU 基础

GPU 是 Graphics Processing Unit(图形处理器)的简称,它是计算机系统中负责处理图形和图像相关任务的核心组件。GPU 的发展历史可以追溯到对计算机图形处理需求的不断增长,以及对图像渲染速度和质量的不断追求。从最初的简单图形处理功能到如今的高性能计算和深度学习加速器…