Toggle navigation
首页
教师中心
EN
教育经历
2016年-2021年,中国人民大学,物理系,博士, 导师:卢仲毅 教授
2012年-2016年,中国人民大学,物理系,学士
工作经历
2021年至今,中国人民大学高瓴人工智能学院博士后,合作导师:文继荣 孙浩
研究方向
Phys for AI:
预训练语言模型;模型压缩;张量表示
AI for Phys:
物理嵌入的人工智能;AI技术辅助材料搜索
教授课程
2022-2023 春季: 人工智能概论(本科生课程)
2022-2023 秋季:人工智能与物理学(本科生课程)
科研项目
国家自然科学基金委,青年项目,大规模预训练语言模型的轻量化微调与模型扩容方法研究(Nos. 62206299),主持
北京市智源人工智能研究院,横向项目,基于矩阵乘积算符的多模态模型的轻量化微调,主持
CCF-智谱大模型项目,横向项目,基于张量分解的预训练模型压缩策略,主持
中国科学院大学外协项目,横向项目,面向非线性动力系统建模的物理启发深度图学习理论与技术,主持
国家自然科学基金委,面上项目,基于物理嵌入深度图学习的复杂时空系统科学计算理论与算法(Nos. 62276269),参与
国家自然科学基金委,面上项目,张量网络与神经网络在强关联系统中的结合、发展与应用(Nos. 11874421),参与
国家自然科学基金委,面上项目,基于自然轨道重整化群对量子杂质系统中若干问题的研究(Nos. 11774422),参与
国家自然科学基金委,面上项目,多体局域化的若干问题研究(Nos. 11874421),参与
北京自然科学基金委,重点研究专题,离子阱量子计算技术与算法的研究,参与
学术论文
2024
Enhancing Parameter-efficient Fine-tuning with Simple Calibration Based on Stable Rank
Peiyu Liu, Ze-Feng Gao, Xiao Zhang, Wayne Xin Zhao, Ji-Rong Wen
COLING2024
下载:
论文文档
链接:
链接
Unlocking Data-free Low-bit Quantization with Matrix Decomposition for KY Cache Compression.
Peiyu Liu, Ze-Feng Gao, Wayne Xin Zhao, Yipeng Ma, Tao Wang, Ji-Rong Wen.
ACL2024
Extremely strong spin-orbit coupling effect in light element altermagnetic materials
Shuai Qu, Ze-Feng Gao, Hao Sun, Kai Liu, Peng-Jie Guo, Zhong-Yi Lu
Arxiv
下载:
论文文档
链接:
链接
Do Emergent Abilities Exist in Quantized Large Language Models: An Empirical Study
Peiyu Liu, Zikang Liu, Ze-Feng Gao, Dawei Gao, Wayne Xin Zhao, Yaliang Li, Bolin Ding, Ji-Rong Wen
COLING2024
下载:
论文文档
链接:
链接
2023
Enhancing Scalability of Pre-trained Language Models via Efficient Parameter Sharing
Peiyu Liu, Ze-Feng Gao, Yushuo Chen, Xin Zhao, Ji-Rong Wen
EMNLP2023
下载:
论文文档
链接:
链接
AI-accelerated Discovery of Altermagnetic Materials
Ze-Feng Gao, Shuai Qu, Bocheng Zeng, Yang Liu, Ji-Rong Wen, Hao Sun, Peng-Jie Guo, Zhong-Yi Lu
Arxiv
下载:
论文文档
链接:
链接
Altermagnetic ferroelectric LiFe2F6 and spin-triplet excitonic insulator phase
Peng-Jie Guo, Yuhao Gu, Ze-Feng Gao, Zhong-Yi Lu
Arxiv
下载:
论文文档
链接:
链接
Matrix Product Operator based Sequential Recommendation Model
Peiyu Liu, Bowen Yao, Ze-Feng Gao*, Wayne Xin Zhao*
CCIR2023
下载:
论文文档
Compression Image Dataset Based on Multiple Matrix Product States
Ze-Feng Gao, Peiyu Liu, Wayne Xin Zhao, Zhi-Yuan Xie, Ji-Rong Wen and Zhong-Yi Lu
FICC2024
下载:
论文文档
链接:
链接
Scaling Pre-trained Language Models to Deeper via Parameter-efficient Architecture
Peiyu Liu*, Ze-Feng Gao*, Wayne Xin Zhao, Ji-Rong Wen
EMNLP2023
下载:
论文文档
链接:
链接
Small Pre-trained Language Models Can be Fine-tuned as Large Models via Over-Parameterization
Ze-Feng Gao, Kun Zhou, Peiyu Liu, Wayne Xin Zhao, Ji-Rong Wen
ACL 2023 (Nominated for Best Paper Award)
下载:
论文文档
链接:
链接
2022
利用自注意力机制优化费米网络的数值研究
王佳奇,高泽峰*,李永峰,王璐*
天津师范大学学报(自然科学版)
下载:
论文文档
链接:
链接
Image Dataset Compression Based on Matrix Product States
Ze-Feng Gao, Peiyu Liu, Wayne Xin Zhao, Zhi-Yuan Xie, Zhong-Yi Lu, Ji-Rong Wen
OpenReview
下载:
论文文档
链接:
链接
Parameter-Efficient Mixture-of-Experts Architecture for Pre-trained Language Models
Ze-Feng Gao*, Peiyu Liu*, Wayne Xin Zhao#, Zhong-Yi Lu, Ji-Rong Wen
COLING2022, Oral Presentation
下载:
演示文档
链接:
链接
2021
Enabling Lightweight Fine-tuning for Pre-trained Language Model Compression based on Matrix Product Operators
Peiyu Liu*, Ze-Feng Gao*, Wayne Xin Zhao#, Z.Y. Xie, Zhong-Yi Lu#, Ji-Rong Wen
ACL 2021(Poster)
下载:
演示文档
论文文档
链接:
链接
2020
Compressing LSTM Networks by Matrix Product Operators
Ze-Feng Gao, Xingwei Sun, Lan Gao, Junfeng Li, Zhong-Yi Lu
Arxiv
下载:
论文文档
链接:
链接
Compressing deep neural networks by matrix product operators
Ze-Feng Gao, Song Cheng, Rong-Qiang He, Z. Y. Xie, Hui-Hai Zhao, Zhong-Yi Lu, and Tao Xiang
Phys. Rev. Research 2, 023300.
下载:
论文文档
链接:
链接
A Model Compression Method With Matrix Product Operators for Speech Enhancement
Xingwei Sun*, Ze-Feng Gao*, Zhong-Yi Lu#, Junfeng Li#, Yonghong Yan
IEEE/ACM Transactions on Audio, Speech, and Language Processing 28, 2837-2847, 2020
下载:
论文文档
链接:
链接
荣誉奖励
2023.05 ACL 2023最佳论文提名
2020.09 博士研究生国家奖学金
2013.09 大学生创新实验计划国家级立项
社会兼职
CCIR程序委员
审稿人:EMNLP, ACL, WSDM, ACCV
联系
电话:--
邮箱:zfgao@ruc.edu.cn
个人网页:https://zfgao66.github.io/homepage/
办公地址:立德楼1814