关于人工智能我们了解多少
栏目:行业动态 发布时间:2026-01-12
   编者按:党的二十届四中全会通过的《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》提出:“全面实施‘人工智能+’行动,以人工智能引领科研范式变

  

关于人工智能我们了解多少(图1)

  编者按:党的二十届四中全会通过的《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》提出:“全面实施‘人工智能+’行动,以人工智能引领科研范式变革,加强人工智能同产业发展、文化建设、民生保障、社会治理相结合,抢占人工智能产业应用制高点,全方位赋能千行百业。”这是推进人工智能与经济社会发展广泛深度融合、重塑生产生活范式、促进生产力革命性跃迁和生产关系深层次变革的重大战略部署。那么,到底什么是人工智能?它对我们的生活有着怎样的影响?未来又会如何发展?本刊邀请4位专家学者围绕这些问题进行阐释和解读,供读者参考。

  记者:近年来,人工智能已悄然渗透进社会生产与生活的每个角落,深刻改变人类生产生活方式。那么,人工智能究竟是什么?如何理解专用人工智能、通用人工智能等概念?以ChatGPT和DeepSeek为代表的人工智能大模型取得重大突破意味着什么?

  李艳:从技术本质来看,大语言模型的核心是“语言规律学习”而非“世界规律认知”,它们通过海量文本数据掌握语言表达逻辑,能生成流畅的内容,但缺乏对真实世界的实体感知和因果推理能力,尚未形成真正的“世界模型”。以ChatGPT为例,它主要是基于预训练,即用大量的数据作为语料进行“投喂”,然后根据预期目标进行模型调试,相当于用来刷出高分的“题海战术”,本身尚不具备自主心智。从能力维度分析,当前顶尖大模型在长期记忆存储、多模态深度融合等关键领域存在明显短板。目前大众常用的对话式“智能体”,基本不具备长期记忆存储能力,每打开一次对话框,就是一次重新开始。对话的永远都是“陌生人”,因此,无法稳定记住用户过往沟通偏好,无法通过累积对话经验成为了解你的“朋友”。语言可以承载人类知识和逻辑,但通用人工智能还需要融合视觉、听觉、触觉等多模态感知,以及自主决策、情感理解等综合能力。“卷积神经网络(CNN)之父”、纽约大学教授杨立昆(Yann LeCun)提出的高级机器智能(AMI)概念,强调机器应具备理解物理世界、持久记忆、推理和规划能力,而非仅仅是语言处理能力的扩展。由此看来,大语言模型只是迈向通用人工智能发展的阶段性成果,远非终点。

  陈科良:1950年,“计算机科学之父”艾伦·图灵以“机器能否思考”这一问题开启人类探索智能机器的旅程。在1956年的达特茅斯会议上,“人工智能”被正式命名。1966年,全球最早的聊天机器人Eliza在美国麻省理工学院诞生,实现了简单的人机对话。然而,受限凯云官网于孱弱的数据、算力与算法理论,人工智能的发展一度陷入停滞。后经过数十年的发展,2006年,多伦多大学教授杰弗里·辛顿及其团队正式提出“深度学习”概念,使人工智能发展进入新纪元。2012年,得益于海量标注数据集的出现,以及图形处理器(GPU)带来的强大并行计算能力的支撑,以AlexNet为代表的深度学习技术横空出世,让人工智能真正“学会了学习”,能够自主从海量数据中总结规律。2016年,谷歌DeepMind团队开发的阿尔法狗(AlphaGo)在围棋比赛中战胜世界冠军李世石,展露超越人类定式的“神之一手”。2022年以来,预训练大模型技术将人工智能推向前所未有的高峰,ChatGPT、DeepSeek等模型的开发应用,不仅能理解语言、生成内容,还能进行复杂的逻辑推理。但事实上,目前我们见到的所有人工智能都属于专用人工智能,是面向特定任务的智能形态,具备在单一领域的精准适配能力,如同专业领域的“专才”,像教育智能体、工业智能体均属此类范畴,它们能精准完成教学辅助、工业数据采集等专项任务。而通用人工智能则是具备类人认知能力的“通才”,能够跨领域理解、学习并解决复杂问题,这一目标仍处于理论探索阶段。语言是构建通用人工智能的重要载体,但绝非唯一要素。单模态模型局限于单一信息维度,即便当前多模态模型实现了文本、图像等信息的融合,也仍未突破专用人工智能的边界,无法像人类一样实现跨场景的通用推理。

  张海宁:如果我们将训练一个优秀的大模型比作烹饪一桌满汉全席,那么数据、算力和算法就是缺一不可的核心要素。数据是“顶级食材”。在大模型时代,数据的质远比量重要,我们需要的是经过严格清洗、富含人类逻辑与行业智慧的高质量数据,而非互联网上杂乱无章的原始数据,这是大模型智慧的源头。算力是“猛烈炉火”。不管是模型的训练还是推理,都需要数以万计的图形处理器芯片组成庞大的计算集群,提供惊人的计算能力,这决定了我们能否在有限的时间内完成对海量知识的凝练。算法是“关键菜谱”。它决定了我们如何去构建神经网络的架构(例如Transformer架构,即一种基于自注意力机制的深度学习模型架构),以及如何高效地利用算力和数据。优秀的算法能极大地提升学习效率,用更少的资源训练出更聪明的模型。

  关于未来的发展方向及路径,我认为,首先,以OpenAI的GPT-5.2和Google的Gemini 3.0为代表的深度推理模型,在处理复杂任务上的性能有了质的飞跃,这些技术的突破推动了人工智能的发展。未来将继续扩展这种深度推理能力,从简单的对话转向行动,构建能够胜任长期复杂工作、具备自主规划与执行能力的智能体,让人工智能成为人类的超级助手。其次,发展具身智能,将大模型的大脑装入机器人的身体,在真实的物理世界中感知环境、决策执行,解决现实问题。最后,人工智能算法和底层架构的范式革命。当前的大模型架构在数据和算力效率上已逐渐触及瓶颈,互联网数据已几乎耗尽,大模型训练成本居高不下。基础研究需要探索全新的算法和模型架构,例如研发更高效的学习算法以降低数据需求和训练成本,借鉴人脑工作机制,在底层机理上实现类脑智能。

  李艳:在我看来,未来人工智能整体会沿着“技术深化+生态协同”的路径演进:一是多模态融合持续深化,打破文本、图像、音频等信息壁垒,实现更自然的人机交互;二是模型效率与轻量化并行,在保持性能的同时降低训练和推理成本,有效突破能源困境,推动人工智能普及;三是可解释性与可控性提升,破解“算法黑箱”难题,增强技术的透明度与可信度,尽最大可能解决“幻觉”问题和控制“涌现”问题;四是在应用中实现迭代,以应用实践反哺技术迭代,依托真实应用场景积累数据,推动模型从“能用上”向“用得好”升级。

  记者:推动新一轮人工智能突破的关键因素是什么?我国在这些要素方面存在哪些优势和短板?如何应对机遇和挑战?

  张海宁:当基础模型的规模定律(Scaling Law)逐渐面临边际效应递减的挑战时,推动新一轮人工智能突破的关键在于应用落地和架构创新。一方面,将通用的基础大模型与行业真实场景深度结合,利用工业、医疗、金融等领域的私域数据,去解决那些通用大模型无法解决的、具体的、高价值的行业痛点,推动人工智能从技术玩具变成新质生产力。另一方面,在大模型架构上进行探索,突破现有Transformer架构在长文本处理和推理效率上的瓶颈,寻找数据利用率更高、推理成本更低的新架构(例如稀疏注意力机制或状态空间模型),将真正的数学推理方法引入大模型,从而产生更强的智能,降低算力成本,真正实现人工智能普惠。

  聂华:众所周知,在全球范围内,人工智能的发展正进入一个由速度扩张向体系化竞争转变的关键阶段,技术创新的外溢效应与制度规则的塑造功能日益凸显。发达国家在大模型研发、AI芯片设计、高性能算力平台和产业化应用方面具有不同程度的先发优势,加上围绕关键设备与软件的出口管控、生态规范与标准话语权的争夺,使得人工智能不再是单纯的技术问题,而是演绎为一场系统性的战略博弈。在这样的国际环境下,我国面临着机遇与挑战并存的复杂局面。一方面,我国数据资源丰富,产业体系完备,应用场景广阔,市场空间巨大,在人工智能的浪潮中展现出独特优势。比如,超大规模的应用场景与海量数据底座,为模型训练、算法验证等提供了天然实验场,对于推动技术从实验室到产业界的转化起到决定性作用。近年来,我国在算法、系统工程、云基础设施与终端适配等方面取得显著进展,正在逐步形成从基础研究到工程实现的完整创新链条,为构建具有自主性和竞争力的人工智能生态提供了坚实条件。但另一方面,我国人工智能的底层能力体系仍面临“卡点”风险。具体表现在高端AI芯片受限于先进制程,高能效比图形处理器仍有产业链约束,电子设计自动化(EDA)工具、知识产权(IP)授权、高端制造设备等底层基础能力尚未完全自主可控,等等。部分关键基础软件如固件、操作系统、数据库、中间件等仍长期依赖海外体系。开源生态方面,虽然我国贡献逐渐增多,但基础框架与主要标准仍由西方国家主导,在生态规则和技术路线话语权方面有待加强。国际方面,围绕人工智能的出口管制、数据壁垒、供应链限制等消极因素不断增多,使得我国人工智能发展面临更严峻的外部环境。

  陈科良:面对新一代人工智能技术快速演进的新形势,只有抢抓历史性机遇,坚持自立自强,突出应用导向,持续推动我国人工智能朝着有益、安全、公平方向健康有序发展,才能确保人工智能这一引领未来的战略性技术为驱动高质量发展、推进中国式现代化注入源源不断的强大科技创新动力。面对机遇与挑战,应采取“补短板、强优势”的策略:通过“以存提算”等技术创新优化算力效能,突破存算分离架构瓶颈;加强基础算法研究,构建政产学研用协同创新平台;依托数据优势构建合规的数据要素市场,同时以标准引领产业生态建设,比如通过智能体互联网标准抢占国际话语权,等等。

  记者:如何认识人工智能的应用场景?怎样防止技术与实际需求脱节,更好地推动人工智能应用落地?

  李艳:我国发展人工智能产业最大的特点就是“应用为王”,这有利于形成“场景应用—数据积累—技术迭代”的增强回路,以解决实际问题为导向,在应用中积累真实数据,通过数据优化让AI更智能,进而解决更复杂的问题。例如DeepSeek-R1推理模型通过低成本高效训练,已在多个行业场景实现落地,彰显了我国人工智能应用的实践优势。避免技术与需求脱节,就要构建“需求牵引+迭代优化”的闭环机制:一是坚持从行业痛点出发明确技术突破方向,避免盲目追求技术领先、概念创新等,确保产品设计贴合实际场景。例如制造业AI应用,应聚焦降本增效、质量提升等核心需求,而非追求技术炫酷效果。二是采用敏捷迭代模式,通过最小可行产品(MVP)快速试点,根据用户反馈持续优化功能,实现“技术供给”与“需求满足”的动态匹配。三是建立场景化评估标准,摒弃单一技术指标评价体系,将实用性、性价比、易用性等纳入评估维度,引导技术发展聚焦应用落地。

  聂华:如果说核心技术是人工智能产业的“根”,那么繁荣的生态就是其枝叶。根深方能叶茂,本固才会枝荣。核心技术的突破,最终要靠繁荣的生态来支撑,而人工智能产业的竞争,本质上是生态系统的竞争,没有生态就没有产业。只有坚持应用导向,秉持开源开放的合作理念,才能构建高质量、可持续、自主开放的人工智能生态体系,推动国家级开源大模型社区、行业级智能平台、AI芯片—框架—整机—模型—应用全链路协同以及关键行业国产化应用体系建设。同时,聚焦制造业、能源、金融、交通等国民经济重点领域,深入挖掘人工智能应用场景。例如在工业领域,推动工业机器人、人形机器人进工厂,优先在焊接、装配、搬运等细分场景实现落地应用;在金融等关键行业,鼓励优先采用国产自主可控的算力设备和软件系统,在真实的高并发、高负载场景中进行大规模验证。这种“久经沙场”的实战考验,有助于形成“应用牵引技术创新、技术赋能产业升级”的良性循环。积极参与人工智能领域的标准制订工作,通过牵头或参与整机行业标准和测试规范的制定,将我国在高可靠性、高性能计算等方面的技术积累转化为行业标准,提升国产产品的市场认可度和国际话语权,为产业规范健康发展提供制度保障。

  记者:伴随人工智能的深度应用,一系列涉及安全、隐私、公平、责任的伦理难题浮出水面。如何认识和应对人工智能发展带来的安全风险,防止技术滥用,确保智能向善?

  聂华:从深度伪造到算法歧视,从数据隐私泄露到潜在的失控风险,这些问题如果处理不好,不仅会阻碍技术自身的健康发展,更有可能冲击国家安全和社会稳定。对此,我们首先必须坚守“以人为本、智能向善”的价值理念,筑牢伦理道德防线。其次,应以“自主可控”实现“内生安全”,掌握治理的主动权。而治理能力的强弱,归根结底取决于技术底座的坚实程度。如果我们的人工智能产业构建在国外的基础软硬件之上,那么所谓的安全治理就是空谈。为此,必须将“强链补链”的成果转化为治理效能,推广使用国产自主可控的AI芯片、算力平台和基础软件。通过掌握底层代码、固件逻辑和系统架构,实现安全能力与算力体系的深度融合。最后,应积极参与人工智能全球治理,推动构建开放合作、共治共享的全球治理格局。面对共同挑战,各国都应加强在战略对接、政策交流、风险防范、标准制订等方面的深度协作,使人工智能这一人类的创造物成为造福全人类的国际公共产品。

  陈科良:应对人工智能伴生的隐私泄露、算法黑箱、技术滥用等多重风险,必须将伦理考量贯穿技术研发全生命周期,加强监管治理,构建安全可控的制度保障体系。比如,在智能体互联网设计中嵌入身份认证、访问控制等安全机制,在数智人系统中建立内容审核与行为监管模块,等等。我国把制定人工智能专门法律纳入立法计划,发布《生成式人工智能服务管理暂行办法》、《人工智能安全治理框架》等,建立伦理审查制度,将“以人为本、安全可控”的原则转化为具体的技术标准与操作规范。同时,加强行业自律与公众教育,形成政府、企业、社会协同治理的格局,让人工智能技术始终服务于人的发展与社会进步。持续完善法律法规,加快专门立法进程,为人工智能研发、部署、应用各环节提供清晰的法律边界和责任界定。推动实施“模块化治理”、“参与式治理”等,强化技术赋能监管,发展“以技术监管技术”的能力,积极研发适配治理框架的智慧化监管工具。