教育经历

  • 2016年-2021年,中国人民大学,物理系,博士, 导师:卢仲毅 教授
  • 2012年-2016年,中国人民大学,物理系,学士

工作经历

  • 2021年至今,中国人民大学高瓴人工智能学院博士后,合作导师:文继荣 孙浩

研究方向

Phys for AI:
预训练语言模型;模型压缩;张量表示
AI for Phys:
物理嵌入的人工智能;AI技术辅助材料搜索

教授课程

  • 2022-2023 春季: 人工智能概论(本科生课程)
  • 2022-2023 秋季:人工智能与物理学(本科生课程)

科研项目

  • 国家自然科学基金委,青年项目,大规模预训练语言模型的轻量化微调与模型扩容方法研究(Nos. 62206299),主持
  • 北京市智源人工智能研究院,横向项目,基于矩阵乘积算符的多模态模型的轻量化微调,主持
  • CCF-智谱大模型项目,横向项目,基于张量分解的预训练模型压缩策略,主持
  • 中国科学院大学外协项目,横向项目,面向非线性动力系统建模的物理启发深度图学习理论与技术,主持
  • 国家自然科学基金委,面上项目,基于物理嵌入深度图学习的复杂时空系统科学计算理论与算法(Nos. 62276269),参与
  • 国家自然科学基金委,面上项目,张量网络与神经网络在强关联系统中的结合、发展与应用(Nos. 11874421),参与
  • 国家自然科学基金委,面上项目,基于自然轨道重整化群对量子杂质系统中若干问题的研究(Nos. 11774422),参与
  • 国家自然科学基金委,面上项目,多体局域化的若干问题研究(Nos. 11874421),参与
  • 北京自然科学基金委,重点研究专题,离子阱量子计算技术与算法的研究,参与

学术论文

2024
Extremely strong spin-orbit coupling effect in light element altermagnetic materials
Shuai Qu, Ze-Feng Gao, Hao Sun, Kai Liu, Peng-Jie Guo, Zhong-Yi Lu
Arxiv
下载: 论文文档
链接: 链接

2023
Enhancing Scalability of Pre-trained Language Models via Efficient Parameter Sharing
Peiyu Liu, Ze-Feng Gao, Yushuo Chen, Xin Zhao, Ji-Rong Wen
EMNLP2023
下载: 论文文档
链接: 链接

AI-accelerated Discovery of Altermagnetic Materials
Ze-Feng Gao, Shuai Qu, Bocheng Zeng, Yang Liu, Ji-Rong Wen, Hao Sun, Peng-Jie Guo, Zhong-Yi Lu
Arxiv
下载: 论文文档
链接: 链接

Altermagnetic ferroelectric LiFe2F6 and spin-triplet excitonic insulator phase
Peng-Jie Guo, Yuhao Gu, Ze-Feng Gao, Zhong-Yi Lu
Arxiv
下载: 论文文档
链接: 链接

Matrix Product Operator based Sequential Recommendation Model
Peiyu Liu, Bowen Yao, Ze-Feng Gao*, Wayne Xin Zhao*
CCIR2023
下载: 论文文档

Compression Image Dataset Based on Multiple Matrix Product States
Ze-Feng Gao, Peiyu Liu, Wayne Xin Zhao, Zhi-Yuan Xie, Ji-Rong Wen and Zhong-Yi Lu
FICC2024
下载: 论文文档

Do Emergent Abilities Exist in Quantized Large Language Models: An Empirical Study
Peiyu Liu, Zikang Liu, Ze-Feng Gao, Dawei Gao, Wayne Xin Zhao, Yaliang Li, Bolin Ding, Ji-Rong Wen
Arxiv
下载: 论文文档
链接: 链接

Scaling Pre-trained Language Models to Deeper via Parameter-efficient Architecture
Peiyu Liu*, Ze-Feng Gao*, Wayne Xin Zhao, Ji-Rong Wen
EMNLP2023
下载: 论文文档
链接: 链接

Small Pre-trained Language Models Can be Fine-tuned as Large Models via Over-Parameterization
Ze-Feng Gao, Kun Zhou, Peiyu Liu, Wayne Xin Zhao, Ji-Rong Wen
ACL 2023 (Nominated for Best Paper Award)
下载: 论文文档
链接: 链接

2022
利用自注意力机制优化费米网络的数值研究
王佳奇,高泽峰*,李永峰,王璐*
天津师范大学学报(自然科学版)
下载: 论文文档
链接: 链接

Image Dataset Compression Based on Matrix Product States
Ze-Feng Gao, Peiyu Liu, Wayne Xin Zhao, Zhi-Yuan Xie, Zhong-Yi Lu, Ji-Rong Wen
OpenReview
下载: 论文文档
链接: 链接

Parameter-Efficient Mixture-of-Experts Architecture for Pre-trained Language Models
Ze-Feng Gao*, Peiyu Liu*, Wayne Xin Zhao#, Zhong-Yi Lu, Ji-Rong Wen
COLING2022, Oral Presentation
下载: 演示文档
链接: 链接

2021
Enabling Lightweight Fine-tuning for Pre-trained Language Model Compression based on Matrix Product Operators
Peiyu Liu*, Ze-Feng Gao*, Wayne Xin Zhao#, Z.Y. Xie, Zhong-Yi Lu#, Ji-Rong Wen
ACL 2021(Poster)
下载: 演示文档
链接: 链接

2020
Compressing LSTM Networks by Matrix Product Operators
Ze-Feng Gao, Xingwei Sun, Lan Gao, Junfeng Li, Zhong-Yi Lu
Arxiv
下载: 论文文档
链接: 链接

Compressing deep neural networks by matrix product operators
Ze-Feng Gao, Song Cheng, Rong-Qiang He, Z. Y. Xie, Hui-Hai Zhao, Zhong-Yi Lu, and Tao Xiang
Phys. Rev. Research 2, 023300.
链接: 链接

A Model Compression Method With Matrix Product Operators for Speech Enhancement
Xingwei Sun*, Ze-Feng Gao*, Zhong-Yi Lu#, Junfeng Li#, Yonghong Yan
IEEE/ACM Transactions on Audio, Speech, and Language Processing 28, 2837-2847, 2020
链接: 链接

荣誉奖励

  • 2023.05 ACL 2023最佳论文提名
  • 2020.09 博士研究生国家奖学金
  • 2013.09 大学生创新实验计划国家级立项

社会兼职

  • CCIR程序委员
  • 审稿人:EMNLP, ACL, WSDM, ACCV

contact

电话:--

邮箱:zfgao@ruc.edu.cn

个人网页:https://zfgao66.github.io/homepage/

办公地址:立德楼1814