人工智能大会深观察|没有应用的基础模型一文不值?AI自主发展会不会威胁人类?

人工智能大会深观察|没有应用的基础模型一文不值?AI自主发展会不会威胁人类?

2024年7月4日,2024世界人工智能大会暨人工智能全球治理高级别会议开幕式在上海举行。视觉中国 图

7月4日,2024世界人工智能大会暨人工智能全球治理高级别会议(WAIC2024)开幕。本次大会直面人工智能治理这一全球议题,向全球发布了《人工智能全球治理上海宣言》,提出要促进人工智能发展,维护人工智能安全,构建人工智能的治理体系,呼吁各方携手共同推动人工智能造福全人类。

在展览区,随着这两年人工智能大模型快速发展,各类场景化应用陆续落地,大模型厂商在基础大模型的基础上开发了众多细分领域的大模型,而且这些细分场景化模型都在陆续投入实际应用中。本土算力厂商摩尔线程、燧原科技都在积极推动建设万卡集群,为大参数的大模型训练构建基础设施。

在本届开会开幕首日举办的多场论坛上,多个关于人工智能行业发展的焦点问题被热烈讨论:大模型应该拼应用还是拼参数?作为基础设施的算力如何创新支持AI的发展?AI的自主发展会不会威胁到人类社会?

大模型强调多场景化落地

腾讯、阿里、百度、科大讯飞、商汤等大模型厂商都在展区展示了多个场景化应用方案,很多大模型已经有投入实际应用,之前,各家大模型注重参数比拼,今年更注重应用落地。

在4日举行的产业发展主论坛上,百度创始人、董事长兼首席执行官李彦宏也在演讲中呼吁不要卷模型参数,而要去卷应用。“但是我看到很多人仍然把主要的关注点放在基础模型上,一天到晚跑分,刷榜,谁谁谁又超越GPT4了,OpenAI又出来Sora了,又出来GPT4o了等等。今天这个震撼发布,明天那个史诗级更新,但是我要问,应用在哪里?谁从中获益了?”

李彦宏认为,没有应用,基础模型一文不值,商业化闭源模型最能打,“很多人拿开源模型来改款,以为这样可以更好的服务自己的个性化的应用,殊不知这是创造了一个孤本的模型,既无法从基础模型持续升级当中获益,也没办法跟别人去共享算力。”

李彦宏表示,智能体是百度最看好的AI应用的发展方向,搜索是智能体分发的最大的入口。比如,刚刚过去的高考季,很多大模型公司热衷于写高考作文,李彦宏认为使用价值并不大,真正的需求是大量考生在考完之后要报志愿,选择学校与专业,这时需要一个智能体来回答考生专业的问题。

不过,李彦宏也强调,要避免掉入“超级应用陷阱”,“超级能干”的应用比只看DAU(日活用户)的“超级应用”更重要。

同样,商汤科技董事长兼CEO徐立也指出,当前AI的影响还没有到一个“超级时刻”,因为AI暂未真正走进行业垂直应用引起广泛变化。在他看来,应用是 AI“超级时刻”的关键,现在的大模型只是个“记忆器”,想在垂直领域突破,需要人类构建更加高阶的思维链。

同样对于垂直应用,第四范式联合创始人、总裁胡时伟也强调,应该因地制宜,结合市场特点,把每个行业、场景所需的模型做到极致,“随着行业大模型覆盖面越来越密集,即可汇聚成海,这也是我们走向AGI的独有道路”。

在AI发展道路上,中国公司已在部分场景中展现出优势。

MiniMax创始人兼CEO闫俊杰在接受澎湃新闻等媒体采访时表示,AI现在已经不完全是个技术,它已经变成很多人每天在使用的产品。作为产品,首先肯定要解决用户需求,而需求的解决大部分来自模型的基本能力,去年中国公司在底层复杂能力上距离美国仍有差距,但在今年上半年,在一些偏生产力的场景中已经开始具备局部优势。闫俊杰认为,应用的关键是要降低模型错误率,“AI从辅助人类的工具到能独立完成工作的最核心标志,就是错误率整体的降低”。

智谱AI CEO张鹏也在接受澎湃新闻等媒体采访时表示,要去思考真正有价值的点在哪里,过去一两年主要看到的还是大语言模型的进步以及落地应用产生的价值,未来在多模态、跨模态、具身智能等方面仍存在机会。

对于目前行业的“困局”,他认为不必焦虑,因为AI已经超越了过去所有的科技从爆发到行程生产力的速度,所以不妨“让子弹再飞一会,多一点耐心”,把更多的时间和精力从焦虑中拔出来,去想一想它真正有价值的点在哪,可能爆发的方向在哪,用更多的时间踏踏实实地去做一些尝试。

人工智能大会深观察|没有应用的基础模型一文不值?AI自主发展会不会威胁人类?

2024年7月4日,世界人工智能大会在上海世博中心开幕。视觉中国 图

“国产万卡”计算集群

作为人工智能产业的基础设施,算力的发展同样备受关注。

本次大会,本土算力厂商华为、摩尔线程、燧原科技、天数智芯等展示了自家的算力解决方案。从算力厂商的规划看,万卡智算集群成为新趋势,这也是国产GPU技术里程碑式的进展,用来支持更大参数大模型训练。

7月3日,摩尔线程宣布其AI旗舰产品夸娥(KUAE)智算集群解决方案实现重大升级,从当前的千卡级别大幅扩展至万卡规模,专为万亿参数级别的复杂大模型训练而设计。摩尔线程创始人兼CEO张建中表示,希望摩尔线程的加速平台能够加速一切计算,只是和计算相关的都可以在上面加速,所以简单来讲叫“通用加速计算平台”。

燧原科技创始人、董事长、CEO赵立东在接受澎湃新闻记者采访时也表示,燧原科技下一步将会构建国产万卡计算集群,用来支持大模型训练。

以往大模型训练主要依赖英伟达芯片,而随着国产算力集群的突破,未来更多本土大模型训练有望转移到本土GPU算力集群上,尤其在一些特定应用场景中,国产算力有望构建起自己的优势。

另一家国产算力巨头华为常务董事、华为云CEO张平安4日在产业发展主论坛上发表主题演讲时表示,中国的AI发展离不开算力基础设施的创新,并且要敢于开放行业场景,让AI在行业应用上领先。张平安表示,华为正在通过云网端芯架构上的协同创新,来构建可持续发展的AI算力基础,包括芯端算力上云、面向AI的网络架构升级、云基础设施系统架构创新三个方面。

人工智能既要发展又要治理

当前,以大模型为代表的生成式人工智能拉动全球新一轮科技创新。在产业界人士看来,大模型赋能千行百业,未来所有行业都会用大模型重新做一遍。但这种技术先行、治理监管落后会带来诸多挑战。

本次大会把人工智能治理挑战作为重点提出,呼吁各方积极响应,携手行动,共同推动人工智能造福全人类。

清华大学苏世民书院院长、清华大学人工智能国际治理研究院院长薛澜在开幕式演讲中表示,人工智能带来的技术风险包括出现技术“幻觉”、数据安全、算法歧视等问题,但从人工智能系统长远的影响来看,AI的自主发展可能会威胁到人类社会,这一风险不容忽视。

薛澜称,中国在过往的实践中,已经建立了相对完整的体系。从技术底层上,针对算法数据有一系列治理方面的规则。针对特定问题和应用场景,也制定了相应的治理规则,构建了一个多维度、多层次的治理体系。

上海人工智能实验室主任、首席科学家、清华大学惠妍讲席教授周伯文提出,当前,以大模型为代表的生成式人工智能快速发展,但随着能力不断提升,模型自身及其应用带来一系列潜在风险顾虑。以公众对AI风险的关注顺序来看,首先是数据泄露、滥用、隐私及版权相关的内容风险,其次是恶意使用带来的伪造虚假信息等相关的使用风险,也可能诱发偏见、歧视等相关的伦理问题,人们担心是否会带来就业结构和社会系统性的挑战,甚至在科幻电影中出现了AI失控、人类丧失自主权等设定。

周伯文认为,总体上,AI模型安全能力的提升还远远落后于性能,这种失衡导致AI的发展是跛脚的,发展不均衡的背后是两者投入上的巨大差异。“这些AI风险有的已经出现,但更多是潜在的。防范这些风险需要共同努力,需要科学设计,做出更多贡献。”

大观网-36氪的头像大观网-36氪
Previous 2024 年 7 月 5 日 下午7:08
Next 2024 年 7 月 5 日 下午7:33

相关推荐