爱发新闻 aifatiyu News
科大讯飞AI工程院院长潘青华:源头技术与行业场景双轮驱动 大模爱发体育官网型商业化落地未来可期
)技术狂飙突进,各路科技巨头争相入局,试图在技术演进、应用落地风口抢占更多话语权,“百模大战”已然打响。本期“中国智造面对面”走进AI工程院院长潘青华,解读生成式AI技术发展现状及挑战,展望大模型规模化应用前景。 深耕赛道二十余载,积极拥抱“智能涌现”的大模型时代,依托源头技术创新和成建制的行业顶尖研发团队,通过与华为等合作伙伴强强联合,打造了基于自主可控技术底座的讯飞星火认知大模型。“星星之火,可以燎原”,历经数次迭代升级,讯飞星火大模型迅速在教育、医疗、工业、金融、汽车、法律、科研等应用场景落地开花,正以更好的姿态赋能千行百业,解决社会刚需。 潘青华:2022年12月,科大讯飞启动“1+N认知智能大模型技术及应用”专项攻关,并在2023年5月6日正式发布讯飞星火认知大模型爱发体育官网。 经过多次迭代升级,2023年10月24日,公司在全球开发者节上正式发布星火大模型V3.0,对标ChatGPT(GPT-3.5),实现中文超越,英文相当。 目前,团队还在马不停蹄地攻关,公司将于1月30日发布星火大模型V3.5版本,各方面能力相较过去都会有非常大的提升。 预计在2024年上半年,星火大模型还将迎来新的迭代版本,届时可实现全面对标GPT-4。从现在的训练情况来看,我们对2024年上半年对标GPT-4非常有信心。 潘青华:首先,星火大模型是在科大讯飞前期积累上自主研发的,从预训练到微调,再到强化学习,每一步训练都有技术上的创新。得益于过去十几年在深度学习技术和自然语言处理等算法上的积累和持续创新,星火大模型底层技术更为扎实。 其次,星火大模型在发布之初便同时公布了在、汽车等领域的落地产品应用,在过去的业务开展过程中,公司已经在、医疗、工业、智慧城市等领域开拓了丰富的认知智能行业应用场景,在利用大模型解决实际问题方面形成了独特优势。 再次,讯飞星火大模型是国内首个完全基于国产算力平台训练的大模型。此前,公司两次被美国制裁,我们坚定走软硬一体国产化的必由之路。2023年10月24日,科大讯飞对外发布基于华为昇腾生态的自主可控算力平台——“飞星一号”,通过与华为强强联合,合力打造我国通用智能新算力底座,并在此平台上开展更大规模的大模型训练。我们判断,未来2~3年国产算力生态将持续繁荣,完全可以支撑通用大模型的自主研发。 潘青华:此前,公司在人工智能方面已经构建了成建制的行业顶尖研发团队,这也是星火认知大模型的底气所在。 目前公司AI算法相关研发人员主要集中在AI研究院、AI工程院以及资源数据团队,合计超过1500人,其中直接参与大模型研发的人员有几百人。如果叠加产品线上从事大模型应用开发、落地的相关团队,以及外部合作伙伴和开发者,团队规模会更大。 证券时报记者:目前来看,讯飞星火认知大模型的迭代升级主要是技术驱动还是需求驱动? 目前来自于技术层面的驱动更为直接,所以我们也有比较明确的大模型升级时间节点;除此之外,需求端也是重要的驱动力。最初启动大模型攻关的时候,公司就明确了“1+N”的路线”为基础模型,“N”指的便是行业应用,即让大模型在教育、医疗、汽车、办公、工业、智能硬件等多个领域落地。 当然,大模型进入千行百业并不是一蹴而就的,需要在长时间的打磨中,以潜移默化的方式逐步变成常态。 不要高估技术短期的影响,也绝不能低估技术长期的影响。据我们判断,相比于过去的人工智能技术,大模型进入到实际应用的周期可能会大幅缩短。因为大模型的认知能力一旦有突破口,会很快形成“涟漪效应”,在应用中让越来越多的用户形成使用习惯。 潘青华:根据目前讯飞星火认知大模型的落地应用情况来看,在代码领域程序员对大模型的接受能力是最强的,还有教育、医疗、金融等领域也会有较快应用。另外,还有一个重要的方向是人机交互,包括智能汽车、智能家居、智能硬件终端等,目前已经有搭载大模型的全新交互产品在不断涌现。 潘青华:对于大模型的应用前景,业内还是比较乐观的。我们认为,大模型对于很多岗位的工作人员,特别是脑力劳动者,比如程序员、文字工作者、工程师、医生、教师等职业,都能辅助他们更好、更高效地完成工作。 大模型带来的提效并不意味着对原有工种的替代,它更多的是一种生产工具,在某种程度上改变工作模式,提升岗位生产效率。 证券时报记者:大模型进化到目前的水平,哪些方面让您觉得惊艳?哪些方面表现平平? 潘青华:应该说大模型进化到现在,虽然表现得不够完美,但已经足够让人惊奇。 我们注意到,大模型在几个方面的能力尤为突出:首先是对复杂、深层次语义的理解能力,这种理解并不是靠死记硬背,而是结合上下文,真正理解了背后的意思;其次是跨领域的学习能力,大模型能够快速调用外部插件及相关工具,在较短时间内成为一个“全科人才”;再次是大模型已经具备了思维链,能够像人类解题一样,对复杂任务分步骤推导求解。 当然,大模型也有表现不尽如人意的地方,比如文本生成能力虽然在某些场合已经够用,但还不够好用,不够个性化。 我们认为,大模型最大的短板,在于目前还无法精准地成为每个人的个性化助手,因为从现在的情况来看,为每个人定制大模型的成本是很高的;另外,与人脑相比,大模型并不是在所有的场景都表现得一样聪明,一致性和稳定性还有待提升。 证券时报记者:目前各家的大模型尚处于探索性应用阶段,您认为大模型距离规模化、商业化应用大概还需要多长时间? 潘青华:我们觉得,在未来一年多的时间内,就能看到大模型大规模应用的进展。当然,不同的应用场景落地的速度会有差别,直接面向C端用户的应用应该是最快的。 从现阶段来说,成本是最大的制约因素。如果按照现有算力水平,想要大模型随时随地被调用,成本是无力承受的。 未来,大模型的普及一方面取决于算法的进步,另一方面取决于硬件的进步,即如何在单位芯片功耗相同的情况下,实现更强的计算能力。 需要说明的是,最终大模型的形态可能也会有一些变化,或许不是一个大模型部署在一个大的节点上,而是分散成一些小的轻量化节点,就能够很好地完成任务。 潘青华:我们知道,行业模型的底座其实是基础大模型,伴随着底座模型的迭代,行业模型的落地会加速推进。 爱发体育官网 另一方面,行业模型是一个复杂的智能系统,有赖于专家知识、行业信息、行业数据等,还需要更多理解大模型算法的人做精爱发体育官网、做透相关应用,才能推动大模型技术最终在行业顺利落地。 证券时报记者:当前,市场呈现出“百模大战”的白热化竞争态势,您认为哪些因素会成为决定胜负的关键? 潘青华:我们认为,要想在“百模大战”中胜出,做出效果最好的模型,不仅仅靠堆算力,也要靠原理层面的算法创新。基于现有算法框架,仍然看谁模型更大,能带来能力提升,但无限堆算力可能不是最优路径,预计很快就会进入算法层面的创新比拼阶段。 我们判断,最终能够走出来的通用大模型可能只有几家。未来国内可能就是几个底座,大家各自选择合适的底座去做自己上层的应用。 证券时报记者:大模型在快速发展过程中,也引发了各界对于数据保护、合规风险及隐私泄露等问题的担忧。您如何看待大模型的安全问题?应该从哪些方面规避风险? 潘青华:我们认为,从算法原理来看,大模型距离形成自主意识还为时尚早。而从大模型本身的安全性来看,如何防止生产有害的、错误的信息,这是必须引起重视的,可以从数据源头、训练方法、算法等技术层面建立配套的鉴伪等机制。与此同时,还需要从政策法规层面进行引导,在不影响技术迭代的前提下,避免技术滥用。 潘青华:首先还是需要鼓励实事求是的精神,对人工智能技术不要过度包装、“神话”,让市场客观理性认识技术。另外,希望更多的人能够参与到人工智能生态,以更积极的心态拥抱技术,促进生态繁荣,推动社会进步。