2024年7月11日星期四

2024WAIC概览:下一代大模型,何去何从?

出品 | DeThings


近日 ,上海,2024世界人工智能大会正式开幕。"新"和"全"是今年大会的亮点所在:"新"在于技术新,展会面积超过5.2万平方米,聚焦大模型、算力、机器人、自动驾驶等重点领域,集中展示一批"人工智能+"创新应用最新成果,首发一批备受瞩目的创新产品。 "全"在于参展企业全,科技圈"顶流"悉数报到。目前,已有特斯拉、微软、施耐德等500余家企业确认参展,市外企业和国际企业占比超50%,展品数量已超1500项,首发新品超50款。百度文心、讯飞星火、阿里通义千问、Minimax等大模型新星将接连亮相。 

 

"AI for Science 基础设施建设"和"下一代通用人工智能方法"是大会关注的两大前沿技术话题。 会上,中国科学院院士鄂维南深入分析了AI for Science目前所处的发展阶段,以及推动AI for Science的基础设施建设的重要性,并设计了"四梁N柱"架构,鄂院士提到,"回顾科学研究的基本资源和基本方法,无论哪个科研方向,都少不了基本原理、实验、文献、算力的支撑。因此,构建科学研究的通用基础平台,即基本原理和数据驱动的模型算法与软件、替代文献的数据库与知识库、高效率、高精度的实验表征方法、高度整合的算力平台,可以推动共性问题的解决。 

 

AI的方法大大提升了我们的科研能力,但是离真正解决问题还有距离,这剩下的"最后一公里"该如何打通?中国科学院院士鄂维南、龚新高、丁洪,美国国家工程院院士、香港大学工程学院院长David J. Srolovitz,上海科技大学副教务长刘志,上海大学教授刘轶,北京应用物理与计算数学研究所研究员王涵对此进行了探讨,从构建科学大模型、科学大装置等基础设施方面表达了看法,并共识了一个富有启发性的观点:"AI for Science的基础设施建设需要跨学科的合作,这是实现科学突破的关键。我们应聚焦产业关键问题,赋能工业应用的实际场景。"那么,我们采取什么样的道路才能实现真正的科学大模型呢?专家们指出,"在聚焦算力和算法的同时,要重点关注数据,而这些数据不单单是计算数据,还有来自于实验所产生的数据,从这些数据中诞生新的模型。而验证这些数据的准确性,同样需要AI的赋能。" 

 

在共性平台的基础上,围绕具体应用(如生物医药、新材料、电池等),可高效率地推动对具体问题的研究。材料是AI for Science的重要应用场景之一。"AI for Materials"(AI4M)已成为材料科学研究与开发的重要组成部分,加深了我们对成分-结构-性能关系的理解,并促进了具有目标性能的材料设计。"AI技术能够在全周期加速材料研发,提高材料研发的成功率"。 

 

美国国家工程院院士、香港大学工程学院院长David J. Srolovitz表示, "诸如深度势能等AI for Science代表方法在材料研究方面的广泛应用,已经推动实现了第一性原理精度的大规模模拟。"报告内容再次展示了人工智能应用在科学研究中的强大能力,以及AI赋能的原子间作用势能研究,"整合了提示词工程的大语言模型在材料发现和设计领域已经展现了卓越的性能,它能够解析并理解材料成分、结构、以及性质之间的复杂关系。" 

 

学科的交叉可以碰撞出新的火花,对 AI for Science基础设施建设的创新思路也有新的启迪。"AI智能体引入,将为科研人员赋能,激发创新灵感,大幅缩短研究周期,填补研发人员的短板,让科学家有工程思维,工程师有产品思维。从而减少每个研发步骤之间的隔阂。同样,材料科学也为AI带来了新的挑战,AI硬件问题的解决也需要材料科学推动。"中国科学院院士、北京大学副校长、北京大学博雅讲席教授张锦院士提到。 

 

从基础理论到通用算法,AI技术的快速发展不仅改写了范式,也正在将万物智联的未来视野变为现实。 

 

"虽然目前人工智能算法、大模型已经取得了突出的进步,但是我们还需要继续探索新的技术路线,以适合我国的实际发展需要。"面向下一代通用人工智能方法这一话题,引发了参会嘉宾们的思考。为此,中国科学院院士鄂维南、中国人民大学高瓴人工智能学院执行院长文继荣、复旦大学教授邱锡鹏、华为云大数据与人工智能总裁尤鹏、墨奇科技联合创始人/CTO汤林鹏、上海算法创新研究院研究员杨泓康展开了激烈讨论,参会嘉宾认为,"必须且亟需建立人工智能的底层能力,探索出一条更加可持续、能够解决当前大规模能源资源消耗问题的通用人工智能方法。 

 

也有嘉宾指出,"大模型的完善要从优化知识存储能力和提高知识使用效率双管齐下,催生模型"慢思考"能力。当模型有了解决复杂问题的能力,可能会带来一系列的变化,比如在科研和技术的加速,新材料的发现等等,值得我们的持续关注。"与会嘉宾在此共识,"要实现下一代通用人工智能,需要在算力资源、数据资源、AI数据库能力、下一代模型和人才资源等方面久久为功。"人工智能方法还是有很多没有被探索,应该与场景去结合,从应用到底层技术进行创新。 

 

针对当下通用人工智能的技术热点与未来人工智能发展的必然趋势,论坛嘉宾分享了他们独到的技术见解。"生成式AI或者扩散模型远远不只于生成视频或者图片,使其应用于生命科学和材料科学,如蛋白质结构,RNA序列研究,晶体结构的设计等。"普林斯顿大学教授、普林斯顿人工智能创新中心主任王梦迪分享道。"不管是生成式AI,扩散模型,还是大语言模型,让它变得更有用,更有意思,和人类的价值对齐,我认为我们需要做到的事情是让这些模型可控,这是通向AGI的必经之路。" 

 

我们当前正处在一波人工智能真实场景应用的浪潮之中,也为支持人工智能的硬件发展提出了多功耗,多场景覆盖等更高的要求。在算力方面,未来我们期望的AI,不仅是解决特定问题的工具,更是能够跨领域学习和创新的合作伙伴。华为昇腾计算业务CTO周斌以"大模型算力基础设施的挑战和发展探讨"为主线展开报告,分享了他的观点。"构建弹性灵活的算力基础设施,并发展对应的数据软件框架与优化算法,是确保下一代人工智能发展至关重要的基础环节。业界主流模型从千亿稠密到万亿稀疏,并逐步走向百万级超长序列和多模态,大规模算力成为支撑高质量大模型创新落地的关键基础。" 

 

那么下一代通用人工智能模型是什么样的?专家们也给出了各自的见解。其中之一是类比人脑记忆与思考方式的记忆分层大模型。目前记忆分层的大模型已经在上海算法创新研究院实现。会上,上海算法创新研究院大模型中心负责人熊飞宇发布了最新科研成果——忆³大模型(Memory³),该模型创新地引入了显性记忆机制,显著提高了性能并降低了训练与推理成本。忆³在传统的模型参数(隐性记忆)与上下文键值(工作记忆)之外,增加了第三种形式的记忆——显性记忆。模型无需训练即可将文本转换为显性记忆,并在推理时快速且稀疏地使用记忆。 通过外部化模型存储的知识,显性记忆减轻了模型参数的负担,进而提高了模型的参数效率与训练效率,使基准测试上忆³能够实现约3倍参数量模型的性能。基于忆³架构的AI搜索引擎,利用显性记忆的快速读写,使回答的时效性更强,准确率更高,内容更完整,还能够根据用户的反馈实时更新和优化答案。隐性记忆使搜索引擎能够理解复杂的上下文关系,提供更精准和个性化的搜索结果。基于忆³的特性,这款AI搜索引擎不仅提高了用户的搜索体验,还在信息检索领域树立了新的标杆。此外,忆³已在金融、媒体等行业落地应用。 

随着以深度学习、大模型为代表的 AI 技术迅速发展,图像、视频、文本、语音等的非结构化数据处理的需求和能力也有了爆发式的增长。高维向量是非结构化数据的统一语义表征,但主流的向量数据库存在通用数据管理能力不足,面对海量数据时性能、可扩展性不佳的问题,难以应对大规模复杂 AI 应用的需求,而 MyScale 的初衷就是克服这些问题并成为 AI 时代的数据底座。 

 

墨奇科技联合创始人/CTO汤林鹏介绍道,"MyScale 是国际上首个专为大规模结构化和非结构化数据处理设计的 AI 数据库,支持海量结构化、向量、文本等各类异构数据的高效存储和联合查询,综合性能比国内外其他产品提高 4-10 倍。 

 

在实际生产中,MyScale AI 数据库成功扮演了大模型+大数据双轮驱动下的统一 AI 数据底座。在金融文档分析、科研文献智能问答分析、企业私域知识管理、工业/制造业智能化、零售行业客户服务、人力资源行业智能化、法律行业智能化等应用场景中均帮助客户创造了巨大价值,加速了大模型和场景数据结合的技术创新和应用落地。" 

 

未来,从现在出发。在不断探索人工智能边界的道路上,培植下一代通用人工智能方法、完善AI for Science的基础设施极为关键,它将推动科技向前发展,解锁以前难以想象的创新可能性。


没有评论:

发表评论

下周两天3空投,一鱼3吃要如何准备

纸上得来终觉浅,绝知此事要躬行,期待我们躬身入局,愿每位老铁都能在Web3中收获满满空投大毛哦! 前言-------------------------------------- Web3撸空投是投入产出比较高的一种方式。它主打一个以小搏大,风险小,收益高,花少量的 gas ...