吴云芳

undefined

吴云芳

职称:副教授

研究所:计算语言学研究所

研究领域:

办公电话:86-10-62765835-211

电子邮件:wuyf@pku.edu.cn

个人主页:


主要研究方向

自然语言处理,文本生成,分级阅读


科研/教育经历

2005,博士后,北京大学

2003,博士,北京大学


科研服务

第十九届汉语词汇语义学国际研讨会 程序委员会联合主席

国际会议程序委员会委员,包括 ACLEMNLPAAAI, COLING 等。


主要科研项目

[1]. 国家自然科学基金项目(61773026): 基于文档的智能问答的关键技术研究与资源建设.2018.01-2021.12.

[2]. 国家自然科学基金项目(61371129):基于汉语话题的句际关系自动分析研究. 2014.01-2017.12.

[3]. 国家自然科学基金青年项目(60703063) 基于词语独异性特征的大规模词义标注语料库自动构建研究. 2008.01--2010.12.

[4]. 国家社科基金后期资助项目(11FYY013): 面向语言信息处理的现代汉语并列结构研究. 2012.01-2013.06.

[5]. 国家社会科学基金青年项目(08CYY016) 面向网络文本的词语情感义自动标注研究. 2008.06--2010.12.

[6]. 教育部人文社会科学研究项目(13YJA740060): 大规模词语搭配情感词典的自动构建研究. 2013.01-2015.12.

[7]. 教育部人文社会科学研究青年项目(06JC740001):基于语料库的现代汉语并列结构研究及其自动标注. 2007.01--2009.

[8]. 国家社科基金重大项目(12&ZD227):面向网络文本的多视角语义分析方法、语言知识库及平台建设研究. 2013.01-2017.12,子课题负责人。

[9]. 国家863项目(2015AA015403):面向基础教育的类人智能知识理解与推理关键技术.2015.01-2017.12,课题骨干。

[10].国家863项目(2007AA01Z198) 面向汉语语音合成的言语语义计算模型研究. 2007.07--2009.12,副组长。

[11].主持产学研合作项目7项,资源成果转让若干.


Selected Papers

[1]. Xiaorui Zhou, Senlin Luo, Yunfang Wu*. 2020. Co-Attention Hierarchical Network: Generating Coherent Long Distractors for Reading Comprehension. AAAI-2020.

[2]. Wenjie Zhou, Minghua Zhang, Yunfang Wu*. 2019. Multi-Task Learning with Language Modeling for Question Generation. EMNLP-2019.

[3]. Wenjie Zhou, Minghua Zhang, Yunfang Wu*. 2019. Question-type Driven Question Generation EMNLP-2019.

[4]. Wei Li, Jingjing Xu, Yancheng He, Shengli Yan, Yunfang Wu and Xu Sun. 2019. Coherent Comment Generation for Chinese Articles with a Graph-to-Sequence Model. ACL-2019.

[5]. Minghua Zhang, Yunfang Wu*, Weikang Li, Wei Li. 2018. Learning Universal Sentence Representations with Mean-Max Attention Autoencoder. EMNLP-2018.

[6]. Minghua Zhang, Yunfang Wu*. 2018. An unsupervised model with attention autoencoders for question retrieval. AAAI-2018.

[7]. Weikang Li, Wei Li, Yunfang Wu*. 2018. A unified model for document-based question answering based on human-like reading strategy. AAAI-2018.

[8]. Xinqi Bao, Yunfang Wu*. 2016. A tensor neural network with layerwise pretraining: Towards effective answer retrieval. Journal of Computer Science and Technology (JCST).