直击外滩大会|AI为科研带来了哪些改变,我们怎样应对AI潜在的危害性?

图片来源:外滩大会官方提供

时隔三年,2023Inclusion·外滩大会于9月7日在黄浦世博园召开,对AI的影响展开了探讨。延续“金融+科技”的脉络和国际化的特点,围绕“科技·创造可持续未来”这一主题,大会第一天的主论坛围绕技术、产业与未来三个篇章进行展开。其中,科技篇探讨了科技是如何为全球经济与产业注入新动能,同时令未来更加可持续。


(相关资料图)

去年底开始,硅谷创业公司OpenAI发布聊天机器人大模型ChatGPT,也直接开启了从美国到全球的大模型热潮。仅在中国,以百度文心一言、阿里通义千问、腾讯混元和其它科技公司为代表的大模型竞赛,就正在如火如荼得进行当中。

在这个大模型涌现的时代,AI为技术和科研带来了哪些改变和挑战?我们又有哪些应对的办法?

中国科学院院士、复旦大学副校长张人禾表示,科学智能已经成为人工智能发展的重点方向。

如今,科学智能通过多模态、大模型等人工智能新技术,实现了对多类别、高维度、跨尺度的海量数据进行建模、推理和分析,为复杂场景提供了研究新线索和科学新假设,从而发现了新物质、合成新材料、构建新机理。

具体来讲,在基础研究领域中,可以通过AI赋能规律的探析;在科学发展过程中,AI可以在从设计假设到实验设计、数据收集到数据分析的过程中,起到增速的作用,进而重塑科学发现、推动科研成果涌现。

此外,从范式角度出发,Type1(数据驱动,强调科研中的直觉性思考)可以通过对实验数据的分析,从经验出发寻找科学规律并解决实际问题;Type2(机理驱动,强调科研中的推理性思考)则是基于第一性原理的研究方式,通过构建真实世界的数学模型试图发现物理世界的基本规律。后者往往能够很大程度上驱动物理学的发展,但却在求解真实场景的复杂物理系统的过程中存在着计算量过大的问题。

AI For Science则为上述两种科研范式的融合提供了路径。据张人禾介绍,谷歌旗下的AI公司DeepMind开发的AI蛋白质结构预测ALphaFold2,就是Type1和Type2融合的典型案例。AlphaFold2基于大规模蛋白质结构数据库PDB训练,并将蛋白质结构的生物学知识和事实记忆通过多序列比对、三角形更新、IPA等技术嵌入深度学习算法模型中,能够达到前所未有的预测准确度。

机器学习泰斗,美国科学院、美国工程院院士迈克尔·乔丹(Michael I.Jordan),同样讲述了科学智能之于科研的重要作用。

在分子生物学领域,AI系统AlphaFold可以通过对大量蛋白质结构和氨基酸数据的学习,预测最终的蛋白质结构,其预测的结构种类可以达到上亿的数量级,对分子生物学的研究工作产生了巨大的推动作用。迈克尔·乔丹举例,在2004年的一篇研究中,需要探究蛋白质的固有无序性与生物学功能的磷酸化之间的关联,这就需要大量的蛋白质结构数据作为支撑。然而人们通过X射线衍射的方式得到的蛋白质结构数据库只有一万量级,AlphaFold的预测则可以达到两亿量级,尽管不是真实实验的数据,但它的准确度并不低,由此推动了分子生物学、乃至更多领域的科研工作。

同时,迈克尔·乔丹还指出了AI现阶段所面临的问题:“如果你问ChatGPT,你刚刚写的内容你确定吗?你会发现,它完全无法回答这个问题。”这是现阶段的人工智能正在面临的一个问题。迈克尔·乔丹还强调,金融科技归根到底是不确定的技术,那么对于正在金融科技领域发挥重要作用的人工智能,解决其不确定性以及对不确定性进行量化的问题成为了十分关键的一点。

人是多种多样的,相对应的,AI的本质应该是集体,而不是个人。正是从这一观点出发,迈克尔·乔丹指出,我们可以通过设计一个协作式的、去中心化的系统来实现集体智能,并通过这样一个集体智能体,去解决不确定性。

除了不确定的问题,大模型时代还存在着显著的安全问题。

中国科学院院士何积丰认为,大模型时代显著的安全问题就在于隐私和“对齐(alignment)”。

对齐指的是AI系统的目标或者说产出要与人类的价值观和设计者的期望相符合。“如果把人工智能看作西游记里的孙悟空,‘对齐’就是唐僧的紧箍咒。有了紧箍咒,就可以保证技术不会任意使用能力胡作非为。”

一方面,大模型能力的发展及其对于我们日常生活的渗透,对隐私保护提出了更高的要求。

另一方面,对齐技术在规范AI的同时也面临着挑战,人类的价值观是多元且动态发展的;AI大模型的“有用性”与“无害性”之间的目标也并不是完全一致的,这些都对“对齐”技术提出了挑战。

面临上述挑战,通过人工反馈保证输出内容的质量,以及事先规定大模型应当遵循的原则,让系统自动训练模型对生成结果提供初始排序,或可成为一条解决问题的途径,何积丰表示,“人类和机器将持续共同学习”。

关键词: