个人简介
冯洋,中国科学院计算技术研究所 研究员、博士生导师、自然语言处理团队负责人、“新百星人才引进计划”入选者,计算机学会杰出会员、人工智能学会首批杰出会员。在中科院计算所获得博士学位后,先后前往谢菲尔德大学和南加州大学信息科学研究所(USC/ISI)开展研究工作。(曾)担任中文信息学会青年工作委员会副主任、计算语言学专委会执行委员(共7人)、ACL Rolling Review常任高级领域主席,多次担任ACL/EMNLP等国内外会议(高级)领域主席。获得国内首个“ACL最佳论文奖”,获人工智能学会“杰出贡献奖”、CCF自然语言处理专委会“青年新锐奖”、“钱伟长中文信息处理科学技术奖-汉王青年创新奖”一等奖,领导研发了百聆大模型并开放试用(https://nlp.ict.ac.cn/bayling),作为项目负责人主持国家重点研发计划、国家自然科学基金项目等,与华为、腾讯、百度、字节跳动等公司开展合作研究。
2017年加入计算所后,指导及联合指导的学生获得 “ACL最佳论文奖”(ACL开办50多年来国内首个)、 “中国中文信息学会优秀博士学位论文”、“中国科学院百篇优秀博士学位论文”、“世界人工智能大会青年优秀论文奖”、“北京市优秀毕业生”、“ 腾讯犀牛鸟精英人才培养计划奖学金”等奖项,1人入围“CCF博士学位论文奖励计划”(共18人入围),有2人分别于直博三年级获得中科院计算所“所长特别奖(夏培肃奖)”(每年2人)和“所长特别奖”(每年7人左右)。支持学生参与学术服务和学术分享,指导的学生担任中文信息学会青工委学生工作委员会主任、国际会议ACL/NAACL/EACL ARR的领域主席,多人次担任中国自然语言处理学生研讨会 以及 EMNLP/COLING论文预讲会的程序委员会主席、全国性学术会议CCL/YSSNLP等的学生研讨会主席,在国际顶级会议EMNLP举办3小时时长的Tutorial,作为国内唯一学者受邀参加国际对话评估研讨会,多人受邀在全国性学术会议、学术社区、企业等进行报告分享。
研究方向:
人工智能、自然语言处理、大语言模型
最新消息
招聘博士后和教师, 有意者请邮件联系。
2024年9月11日, 我们发布了端到端语音交互大模型LLaMA-Omni, 能够像GPT 4o一样以极低的延时和用户进行语音交互。论文、代码和模型均已公布,欢迎关注。
2024年9月,2023届博士毕业生邵晨泽入选2024年度“中国科学院百篇优秀博士学位论文”,为中科院计算所唯一入选。
2024年6月5日,我们发布了实时语音翻译模型StreamSpeech,能够以一个模型同时完成语音识别、实时语音到文本翻译和实时语音到语音翻译,在离线和实时语音翻译上均取得了目前最好的性能。论文、代码、模型和演示系统均已公布,欢迎关注。
2024年5月,团队升级百聆大模型并发布“百聆·翻译”,为首个发布的支持同声传译的大模型,点击试用百聆,点击试用百聆·翻译,详情可参考网站新闻。
2024年5月,9篇论文被ACL 2024录用,其中5篇主会论文,4篇Findings论文。
2023届博士毕业生邵晨泽入围2023年度“CCF博士学位论文奖励计划”(共18人入围)。
博士生房庆凯获得2023年度中科院计算所“所长特别奖”(共7人)。
6篇论文被EMNLP 2023录用。
4篇论文被NeurIPS 2023录用。
博士生邵晨泽获得北京市优秀毕业生。
团队发表介绍百聆通用大模型文章并开放内测,更多内容详见 https://nlp.ict.ac.cn/bayling 。
发表论文
部分发表论文: [更多论文]
Qingkai Fang, Shoutao Guo, Yan Zhou, Zhengrui Ma, Shaolei Zhang, Yang Feng. LLaMA-Omni: Seamless Speech Interaction with Large Language Models. In arXiv:2409.06666.
Shaolei Zhang, Tian Yu, Yang Feng. TruthX: Alleviating Hallucinations by Editing Large Language Models in Truthful Space. In Proceedings of ACL 2024.
Qingkai Fang, Shaolei Zhang, Zhengrui Ma, Min Zhang, Yang Feng. Can We Achieve High-quality Direct Speech-to-Speech Translation Without Parallel Speech Data?. In Proceedings of ACL 2024.
Qingkai Fang, Yan Zhou, Yang Feng. DASpeech: Directed Acyclic Transformer for Fast and High-quality Speech-to-Speech Translation. NeurIPS 2023.
Shaolei Zhang, Yang Feng. Unified Segment-to-Segment Framework for Simultaneous Sequence Generation. NeurIPS 2023.
Shangtong Gui, Chenze Shao, Zhengrui Ma, Xishan Zhang, Yunji Chen, Yang Feng. Non-autoregressive Machine Translation with Probabilistic Context-free Grammar. NeurIPS 2023.
Shaolei Zhang, Qingkai Fang, Zhuocheng Zhang, Zhengrui Ma, Yan Zhou, Langlin Huang, Mengyu Bu, Shangtong Gui, Yunji Chen, Xilin Chen, Yang Feng. BayLing: Bridging Cross-lingual Alignment and Instruction Following through Interactive Translation for Large Language Models. In arXiv:2306.10968.
Yang Feng, Chenze Shao. Non-Autoregressive Models for Fast Sequence Generation. In Proceedings of EMNLP 2022: Tutorial Abstracts.
Chenze Shao, Yang Feng. Exploring Non-Monotonic Latent Alignments for Non-Autoregressive Machine Translation. NeurIPS 2022 (Spotlight).
Wen Zhang, Yang Feng, Fandong Meng, Di You, Qun Liu. Bridging the Gap between Training and Inference for Neural Machine Translation. In Proceedings of ACL 2019. (获得ACL 2019最佳论文奖)
系统开源
LLaMA-Omni:实时语音交互大模型
2024年9月11日,我们发布了端到端语音交互大模型LLaMA-Omni,可以像GPT-4o 以极低延时与用户进行语音交互。LLaMA-Omni 基于最新的 Llama-3.1-8B-Instruct 开发,面向通用指令遵循任务,能够根据语音指令同步生成语音与文本回复,回复内容和风格均显著优于现有语音大模型。同时,LLaMA-Omni 的响应延时可低至 226ms,低于 GPT-4o 的平均延时 320ms。
StreamSpeech: 实时语音翻译模型
[Paper] [Code] [Models] [Demo]
2024年6月5日,我们发布了实时语音翻译模型,能够以一个模型同时完成语音识别、实时语音到文本翻译和实时语音到语音翻译,在离线和实时语音翻译上均取得了目前最好的性能。
BayLing(百聆通用大模型)
[Homepage] [Demo] [Paper] [Code] [Model-7b] [Model-13b]
借助交互式翻译任务可同时完成语言间对齐以及与人类意图对齐的特性,使得百聆大模型在对齐人类意图的同时,完成生成能力从英语到其他语言的传递。在单轮翻译任务上,百聆达到了GPT-4 95%的性能,在交互式翻译上,百聆达到了GPT-3.5-turbo 96%的性能。研究团队还构建了双语多轮通用测试集BayLing-80并开源,在BayLing-80测试集上百聆达到了GPT-3.5-turbo 89%的性能。
2023年6月21日,在Arxiv上发表了论文Bridging Cross-lingual Alignment and Instruction Following through Interactive Translation for Large Language Models,开源了百聆代码以及7B和13B的模型权重,同时开放线上内测。
教授课程
通用大模型原理及训练实践:2023、2024年夏季学期
自然语言处理:2022、2023年秋季学期
获得奖励
“钱伟长中文信息处理科学技术奖-汉王青年创新奖”一等奖(第一完成人);
CCF自然语言处理专委会“青年新锐奖”;
人工智能学会“杰出贡献奖”;
ACL最佳长文奖(通讯作者);
计算所2019年度“卓越之星”;
入选计算所“新百星人才引进计划”。
学术服务
国内:
中国中文信息学会青年工作委员会副主任;
中国中文信息学会计算语言学专委会执委;
程序委员会主席:第二十一届自然语言处理青年学者研讨会(YSSNLP2024)、第十九届全国机器翻译大会(CCMT 2023)、第二十一届中国计算语言学大会(CCL 2022)、第六届语言与智能高峰论坛(2021年);
大会主席:中国自然语言处理学生研讨会 CSSNLP 2020、2021、2022、2023.
国际:
- 副编辑: IEEE Transactions on Asian and Low-Resource Language Information Processing(TALLIP);
- 编委:Artifical Intelligence; The Northern European Journal of Language Technology;
- 高级领域主席: EACL 2024; AACL 2022; EMNLP2021;
- 领域主席: EACL2023; ACL2021; EMNLP2020; COLING 2018;
- 组织委员会: ACL 2024 Demonstration Co-chair; ACL 2023 Workshop Co-chair; EMNLP 2020 Virtual Infra-structure Co-chair;
- ARR Permanent Senior Action Editor;
- 博士学位答辩委员会委员:KU Leuven、Worcester Polytechnic Institute 。
指导学生
在读博士生:
张绍磊,2020年入学,获得2022年度中科院计算所“所长特别奖(夏培肃奖)”(共2人)
张倬诚,2020年入学(与张民教授联合指导)
房庆凯,2021年入学,获得2023年度中科院计算所“所长特别奖”(共7人)
马铮睿,2021年入学(与张民教授联合指导)
郭守涛,2022年入学
张珂豪,2022年入学
卜梦煜,2023年入学
周䶮,2023年入学
温卓凡,2024年入学
朱纪龙,2024年入学
在读硕士生:
鄢子文,2022年入学
杨哲,2022年入学
雨田,2023年入学
乔康裕,2024年入学
已毕业博士:
邵晨泽,2018年-2023年,获得2023年度北京市“优秀毕业生”、2024年度“中国科学院百篇优秀博士学位论文”、入围“CCF博士学位论文奖励计划”(共18人)
谷舒豪,2017年-2023年,获得2020年度“所长优秀奖”
欧蛟,2015年-2023年(2019年开始指导)
刘舒曼,2015年-2023年(与刘群教授联合指导,2022年开始指导)
张文,2013年-2019年,获得ACL 2019唯一“最佳论文奖”、2019年度中文信息学会“优秀博士学位论文”、2020年度“世界人工智能大会青年优秀论文奖”(与刘群教授联合指导,2017年开始指导)
已毕业硕士:
刘龙祥,2021年-2024年
黄浪林,2021年-2024年
武煊甫,2020年-2023年
李泽康,2019年-2022年,获得“优秀毕业生”称号
郭登级,2019年-2022年
李绩成,2018年-2021年(2019年开始指导)
单勇,2018年-2021年
王树根,2017年-2020年(与刘群教授联合指导)
薛海洋,2016年-2019年(与刘群教授联合指导,2017年开始指导)
李京谕,2016年-2019年(与刘群教授联合指导,2017年开始指导)
2024年9月12日更新。