来源:环球时报 【环球时报记者 马军】“十五五”规划建议包括“建设全国一体化算力网络并推动集约高效利用”、“人工智能产业应用达到压倒性水平”等一系列重要进展。我们正在积极开发日本人工智能发展所需的基础设施,并为人工智能技术的应用指明方向。近年来,人工智能越来越多地融入社会生活,但其带来的安全风险也备受关注。全国政协委员、360集团创始人周鸿祎今年两场会议重点讨论了智能公共服务平台建设和安全智能代理大规模应用。周鸿祎接受环球时报记者采访透露人工智能本身的风险随着技术的发展而增加。与企业系统深度融合会带来更加复杂的安全风险,需要“以AI对抗AI”。推理计算能力的重要性日益凸显。近年来,全球越来越多的人工智能行业人士认识到,能源已成为人工智能发展的关键限制因素,因为训练和使用大型模型需要大量的能源消耗。在周鸿祎看来,中国的能源优势持续转化为整体算力。一般算力可以分为训练算力和推理算力,但算力本身并不直接创造产业价值。只有消耗推理计算能力的智能代理才能将通用模型功能转化为理解行业和场景的“专用智能”。 “懂博”的专业人士“人工智能与商业”可以在安全特性的保护下进行规划、管理和运行,最终产生稳定、可持续的生产力。在这个变革链条中,智能是连接各要素、促进生产力形成的关键驱动力。周鸿祎特别关注推理计算能力的发展。推理计算能力是指执行响应EST的大规模AI模型的能力,其主要要求是低延迟、高实时性和隐私保护。与强化训练计算能力不同,长期来看,推理计算能力强调“实时响应”。这意味着当用户通过设备(手机、机器人等)发起请求时,可以快速完成数据处理和结果输出。随着百亿级智能体进入工业场景,推理算力的重要性凸显es日益突出。目前,我国训练计算能力不断提升,但推理任务专用集群还存在结构性缺口,专用推理芯片能力亟待提升。周鸿祎表示,几年前业界对算力训练的高度重视是很自然的,因为当时还没有大规模的模型训练好,出现了“百模型大战”现象,现阶段算力训练变得非常重要。不过,从去年开始,国内大型模型的性能已经超越了及格线,基础模型的性能也足够了,所以不需要反复训练模型。当前,人工智能正在进入双向进化时代。一方面是大规模模型的进化,另一方面是智能体的进化。智能代理需要大量推理计算能力。周鸿祎认为,从趋势来看,推理算力的需求正在从“集中在云端”转向“分布在边缘”。未来,很多智能硬件都需要依赖边缘计算进行预处理,这不仅会减少发送大量数据时的带宽消耗,还会降低灵敏度。信息泄露的风险。例如,机器人依靠本地计算能力来执行日常任务,只有复杂的任务才会转移到云计算能力。推理计算能力与边缘计算的结合对于加快智慧城市、智慧工厂、机器人、自动驾驶产业建设具有重要战略意义。对此,周鸿祎先生提出,有必要在国家综合算力框架下出台推理算力设计的指导政策ER体系,建立“全国协同+区域协同”的设计体系,在重点产业领域建设高密度、低时延的推理算力集群,通过规划机制提高资源利用效率。同时,推动专用推理芯片国产化发展,实现产业链自主可控,支撑智能代理技术综合应用。在安全领域,要“以AI对抗AI”。周弘毅认为,当前网络安全领域面临三大挑战。首先,传统的安全措施和运营情报不足。网络安全需要从漏洞防护、模拟攻击入侵等防御环节到安全报警、分析、溯源等运营环节加速智能更新。例如,当面对大量代码时,传统的漏洞检测方法主要依靠“规则匹配”,缺乏“人工审核”,难以智能识别高隐蔽、高风险的漏洞。安全漏洞“难以发现且修复缓慢”。其次,“黑客特工”的威胁加剧。它利用黑客的经验和能力,创造出可以批量复制、24小时运行、只要有算力就自动攻击的“黑客情报”。从全球网络安全监控现状来看,“黑客代理”已成为网络攻击的重要手段,安全也从传统的“人与人”冲突向非对称的“人与机器”冲突发展。第三,人工智能本身存在安全问题。人工智能本身也有其自身的问题,包括差距和价值一致性。大规模模型中的错误可能会导致内容错误和价值错觉。聪明的当代理人犯错误时,会产生严重的后果。即使有了汽车、机器人、无人机等的帮助,威胁也可以从数字世界传播到物理世界。面对这些挑战,周鸿祎提出加快实施“模型治理”,利用人工智能进行管理。他表示,包括360集团在内的国内外安全公司正在广泛采用大型模式和代理商来加强网络安全防护,甚至可能带来根本性的变化。他说,例如,经过专门训练的特工在发现程序中的各种漏洞、后门和弱密码(例如密码为12345)方面比人类更有效率。虽然发现漏洞和安全入侵的人才以前很稀缺,但经过专门培训的大型模型和代理可以“24/7 全天候工作,查找关键机构和部门程序中的漏洞和后门,找到弱密码,并帮助进行改进。”周需要经过训练才能发现程序漏洞的智能体宏一确定,随着AI编程水平的快速发展,“未来人类可以完全放弃对代码的控制,一切都将由AI编写,由AI管理和维护。”这是因为人工智能编写的代码数量和速度远远超过了人类维护它的能力。然而,人工智能创建的程序也存在漏洞。仅仅依靠人类专家来寻找人工智能创建的大型程序中的漏洞显然是不切实际的。可实现的。 “这种情况必须得到解决,否则我们最终会得到大量充满漏洞的代码,无人能理解或维护。如果人工智能编写的代码爆炸,人类后悔就为时已晚了。为了解决这个问题,智能体需要接受专门的训练来发现程序中的漏洞。”如果这些药剂得到广泛应用,将会对整个行业产生革命性的影响。网络安全领域可能会产生影响。周宏毅解释说,网络安全行业最初的共识是,大型程序往往由数百万行甚至更多的代码组成,多个模块和组件协同交互,其逻辑复杂度远远超出人类的控制范围。因此,“计划中的漏洞是不可避免的,而且无法完全消除”。所有安全公司都在思考如何保护自己免受黑客利用漏洞获取访问权限。然而,由于专门寻找程序漏洞的代理的广泛使用,它们可以比人类专家更有效地发现新旧程序中的许多漏洞。 “即使人工智能实际上将程序中的漏洞数量减少了一半,但如果人工智能无法发现漏洞,黑客也可能无法发现另一半。这样,网络安全格局将完全不同。”如何我更有效地利用人工智能 周鸿祎认为,随着智能体能力的提升,人工智能可以取代应用程序,成为服务新的主要入口。通俗地说,大模型就像“知识渊博的大脑”,可以回答问题、写文章、写代码,但无法以“实用”的方式做某些事情。智能代理使用大型模型作为“大脑”,调用应用程序来控制机器人完成整个“想法到行动”的过程。例如,如果您说“点一杯咖啡”,较大的模型会告诉您“打开外卖应用程序点餐”,但它不会打开应用程序、选择咖啡或付款。智能本体自动分解步骤,完成打开外卖APP、选择想要的口味、填写地址、支付的过程,整个过程无需人工参与。周鸿祎说,像OpenClaw这样的代理,你不仅可以访问所有的您的计算机上的工具,还可以根据您的任务需要下载新的工具,并且您的所有文件都将保存在您的计算机上。 “可以在计算机上建立个人数据记忆。更”如果你先告诉AI,你对企业商业模式有专门的研究,AI在搜索训练数据时,“这是因为大模型本质上已经学习了世界上大部分的知识,但如果不与专业方向绑定,AI在回答时会试图添加更多的知识,这会让他显得木讷。通过用户的“角色扮演”,AI更高效地找到相关的专业训练数据。特别提示:以上内容(包括图像和视频(如有)由自有媒体平台“网易账号”用户上传发布,本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由社交媒体网易号用户上传发布dia平台仅提供信息存储服务。
近期评论