5月21日上午,学院在402会议室举办《探讨神经网络在自然语言处理中的应用》科研交流会,主讲人为学院教师钱璐。
钱老师首先深入阐述了神经网络技术的演进历程。这项技术起源于20世纪40年代,但由于受限于当时的计算机硬件性能以及数据集规模的限制,其发展曾一度受阻,经历了70年代和千禧年两次发展低谷。然而,在过去的十年间,随着GPU性能的大幅提升以及大数据时代的到来,情况发生了根本性的转变,神经网络技术迎来了飞速发展的黄金时期。自然语言处理的发展历程是同样是一个不断发展和创新的过程,从早期的基于规则和概率的方法(1950s),到统计方法和机器学习的引入(1980s),再到深度学习和神经网络的广泛应用(2010s),自然语言处理技术不断取得新的突破和进展。
钱老师深入讲解了自然语言处理领域的关键概念,特别是Transformer、BERT、GPT以及大型语言模型(LLMs)。她强调,Transformer以其自注意力机制在捕捉语言特征方面表现出色,而BERT则通过预训练深化了语言理解能力。GPT模型在文本生成领域展现了强大的实力,而LLMs在处理大规模文本数据时具备显著优势。钱老师还结合自身研究方向,提出了大量实用性研究建议。她鼓励大家关注技术动态,不断探索创新以推动自然语言处理领域取得更多突破。